Schlagwort-Archive: Wissenschaft

Predictive policing – eine Gefahr für die Freiheit?

Autor des Beitrags: wegecon
Predictive policing heißt so viel wie „vorbeugende Überwachung“. Behörden wollen sich in die Lage versetzen, den Verbrechensort vor der Tat zu erkennen und den Verbrechern so zuvorkommen – mit Hilfe von Daten,  Technik und Algorithmen.

„Jeden Tag produzieren wir 2,5 Trillionen Bytes an Daten. Nutzen Sie die Chancen von Big Data“, warb IBM mit einer Banner-Kampagne für sein Webanalyseprodukt. Mithilfe von Big Data lasse sich die Relevanz von Online-Marketingmaßnahmen erhöhen, und Werbebudgets effizienter einsetzen da man das Kundenverhalten voraussagen könne. Wisse man vorher, wie sich Kunden orientieren, könne man dieser besser bedienen, besser im Sinne den eignen Produktes beeinflussen. Doch gilt ähnliches für predictive policing? Welche Daten bräuchte man?

Daten, die der Staat speichert, erhält dieser oftmals aufgrund eines Gesetzes, das heißt, der Bürger kann sich der Herausgabe der Daten und deren Speicherung nicht entziehen. Unter anderem aus diesem Grund dürfen Daten nur zu den Zwecken verwendet werden, zu denen sie erhoben worden sind. Gleiches gilt für die Verknüpfungen von Daten: Daten, die beispielsweise für Mautzwecke erhoben worden sind, dürfen nicht mit Daten aus der Verbrechensbekämpfung verknüpft werden.

In Teilen der Tagespresse und in Fachpublikationen erscheinen mittlerweile täglich Artikel zu Thema predictive policing. Aufgrund welcher Datenbasis die Entwickler von predictive policing Software ihre Voraussagen treffen, ist unterschiedlich. Generell scheinen Entwickler und Anwender jedoch der Meinung zu sein: viele Daten führen zu genaueren Vorhersagen. Genannt werden unter anderem:

  • Wetterdaten
  • Daten von ausländischen Prepaid SIM Cards
  • polizeiliche Falldaten der letzten sieben Jahre
  • Daten über Kundenverhalten im Distrikt (Kreditwürdigkeit, Schulden)
  • Sozialstruktur
  • Wohnorte bekannter, verurteilter Täter
  • Fahrzeugbewegungen aufgrund eigener „Maut“geräte

Es braucht nicht viel Phantasie oder Fachwissen um festzustellen, dass eine Überwachung der Bevölkerung mit den genannten Daten beziehungsweise eine Verknüpfung der Daten zu einer totalen Kontrolle der Bevölkerung führt.

Verknüpft der Staat die genannten Daten, ist folgender Satz richtig: predictive policing unterstützt Re-Anonymisierung und Personalisierung.

Obwohl predictive policing „vorbeugende Überwachung“ heißt, liegt die Kunst der Umsetzung der Idee des predictive policing darin, die Bevölkerung eben nicht zu überwachen. Ein Widerspruch? Nein, denn das geforderte Umdenken muss sich ebenfalls auf die Technik, die Mathematik, die angewandten algorithmischen Strategien beziehen. Der wegeconBLOG hat nachgewiesen, das nur sehr wenige Daten nötig sind, um zukünftige Tatorte errechnen zu können. Die Einbeziehung der Koordinaten der Tatorte der letzten Wochen in kriminalpolizeiliche Analysen ist nicht nur unbedenklich sondern schon immer Tagesgeschäft der Ermittler.

Ergo gilt:

  1. kein datengetriebenes predictive policing
  2. keine demokratiegefährdende Überwachung
  3. keine Re-Anonymisierung, keine Personalisierung
  4. keine Stigmatisierung einzelner Gebiete

Predictive policing kann gelingen, sofern intelligenzgetriebene Analysesysteme große Datenmengen entbehrlich machen.


Vielen Dank an wegecon für seine Gedanken!

Kompletter Beitrag verfügbar unter wegecon.de

Mathematische Methoden in der Kriminalistik

Predictive Policing – Prognosen durch Quantenphysik?

Autor des Beitrags: wegecon

Die Zukunft ist unmittelbar abhängig von Ereignissen der Vergangenheit.

Warum ist das so? Einfach zu erklären sind Phänomene, die sich auf Dominoeffekte (Abfolge meist ähnlicher Ereignisse, von denen jedes einzelne zugleich Ursache des folgenden ist und die alle auf ein einzelnes Anfangsereignis zurückgehen) oder Kettenreaktionen beziehen.  Komplizierter wird es, wenn singuläre, zufällige, von einander unabhängige Ereignisse zusammenzuhängen scheinen. Hier gilt nicht: A -> B, B -> C, C -> D, usw. Trotzdem lassen sich auch solche Ereignisse im Voraus berechnen.

Nehmen wir an, Du bist Besitzer eines Restaurants. Nehmen wir weiter an, am gestrigen Tage speisten 35 Gäste in Deinem Restaurant. Jetzt stellt Dir Deine Servicechefin die Frage, für wie viele Gäste sie die Tische für morgen vorsorglich eindecken soll. Vermutlich werden Dir sofort die Zahlen „35“ und „34“ als Antwort einfallen, weniger wirst Du an „1“ oder „1769“ denken und damit hast Du nichts anderes getan, als die Poissonverteilung angewandt. Man kann mathematisch determiniert Ereignisse berechnen, die nicht unmittelbar zusammenhängen.

Bei Einbrüchen, die man mit predictive policing (engl., vorausschauende Überwachung) verhindern will, verhält es sich ähnlich. Der Einbruch wird betrachtet als singuläres, von anderen Ereignissen unabhängiges Ereignis. Allein der Umstand, dass sich in einem bestimmten Gebiet ein Einbruch ereignet hat, lässt die Wahrscheinlichkeit empor schnellen, dass sich in der Nähe in Kürze ein weiterer Einbruch ereignen wird und zwar völlig unabhängig von der Person des Opfers, des Täters oder der Tatumstände. Jedes Einbruchsereignis ist eine von anderen Einbrüchen unabhängige, zufällige Tat. Anhand der Daten über das Einbruchsereignis lässt sich ein Muster (engl. pattern) entwickeln, das die Vorhersage der folgenden, in der Zukunft stattfindenden Einbrüche, also einen Blick in die Zukunft, zulässt. Eine solche Analyse macht sich den Umstand zu nutze, dass menschliches Verhalten vorhersehbar ist und Mustern folgt, was übrigens der Kern aller Big Data Analysen ist.

Bei Einbrüchen scheint es so zu sein, dass ein vorangegangener Einbruch ein initiales Ereignis in der Zukunft auslöst, das die Erschütterungen der Vergangenheit in die Zukunft transportiert und dort modelliert. Der Vorgang „Einbruch löst Einbruch aus“ scheint  nur wenige physikalische Voraussetzungen zu benötigen, eine weitere ist dem menschlichen Erfahrungshorizont und seiner Einbildungskraft geschuldet und deshalb wollen wir der Einfachheit halber annehmen, es gäbe so etwas wie Zeit.

Ein Ansatz, sich der Vorhersage zukünftiger Einbrüche zu nähern, ist die Bestimmung der Verbrechensrate in Raum und Zeit:

verbrechensrate-in-raum-und-zeit

Der in einem bestimmten Zeitintervall ablaufende Verbrechensrate aller Einbrüche setzt sich zusammen aus den bisher geschehenen Einbrüchen und den momentan verübten Einbrüchen. Eine Analyse sämtlicher Informationen zu der bisher stattgefundenen Verbrechensrate erlaubt uns, einen Algorithmus zu schaffen, der die erkannten Muster abfängt, abbildet und Richtung Zukunft transportiert. In der Praxis berechnet man die Wahrscheinlichkeit, für welches Gebiet in Zukunft, in ein oder zwei Tagen, ein wesentlich höheres Risiko für einen Einbruch besteht.

In Hinblick auf das Ergebnis der Wahrscheinlichkeitsberechnung ist es nicht übertrieben, von Signaturtatorten zu reden. Vom zukünftigen Tatort sind die berechneten, aus der Vergangenheit geerbten Attribute Ort und Zeit bekannt.

Was aber weder die Mathematik noch eine Big Data Analyse in der Lage sind zu erklären ist die Frage nach dem „Warum“. Zur Klärung des „Warum“ verabschieden wir uns zunächst von der 11. Dimension, der Zeit, und betrachten einen zweidimensionalen Raum:

verbrechensrate-im-raum

Wir haben jetzt bereits nicht mehr das physikalische Abbild einer Wohnung bzw. eines Wohnungseinbruchs in unserer Formel beschrieben sondern geben nur noch Auskunft über deren Lage in einem x|y Koordinatensystem, genauer: wir stellen die Information über den Ort des Einbruchs bereit, sonst nichts. Wenn wir das tun, ist es zulässig, konsequent zu sein und folgendes Postulat aufzustellen:

verbrechensrate-information

Auf Deutsch: die im Raum existente Verbrechensrate Lambda setzt sich zusammen aus den in müh zusammengefassten Informationen über Wohnungseinbrüche im Raum und aus den Informationen über die zum Zeitpunkt der Messung erfassten Orte x|y im Referenzraum.

Physikalisch gesehen ist eine Information weder Materie noch Energie. Ähnlich der Materie kann aber eine Information (vom Sender zum Empfänger) transportiert werden und sie kann, ähnlich wie Energie, eine materielose Wirkung auf den Empfänger ausüben. Zu vergleichen wäre die Information physikalisch am ehestem mit Licht, welches sich in seinem Welle-Teilchen-Dualismus ähnlich verhält. Nichtsdestotrotz ist “Information” ein Grundbegriff, eine Grundsäule unseres Weltbildes.

entstehung-raum-zeit

Im eben beschriebenen Einbruch-Informations-Modell (Burglary-Information-Model BIM) können wir den Ort für alle Einbrüche mit x genau angeben. In der Theorie erhöht der Umstand, dass ein Einbruch stattgefunden hat, die Wahrscheinlichkeit dafür, dass ein weiterer Einbruch in der Nähe stattfindet, signifikant. Vom ersten Einbruch kann ein Impuls p für einen Near-Repeat ausgehen. Welche Streuungs-Relationen bestehen? Die Unschärfe des Ortes x und des Impulses  wird jeweils durch deren statistische Streuung σx und σp definiert. Die Unschärferelation besagt in diesem Fall

\sigma_x\sigma_p\ge\frac{\hbar}{2}\,, \qquad\qquad (1),

wobei \hbar = h/2\pi und \pi die Kreiszahl ist. In unserem Spezialfall ist x natürlich bekannt. In einer Verallgemeinerung der Heisenbergschen Unschärferelation wenden wir darauf  Ungleichungen bezüglich unterschiedlicher Impulskomponenten zwischen Energie und Impuls oder auch Ort und Energie an.

Der Einbruch gehorcht in diesem Modell den Gesetzten der Quantenmechanik. Die Quantentheorie hat nicht nur die Physik revolutioniert. Sie warf auch ein neues Licht auf eine Vielzahl von Phänomenen in der Chemie und der Biologie und entfachte heftige Debatten in den Geisteswissenschaften. Immer wieder folgten daraus neue, interdisziplinäre Ansätze. Das jüngste Beispiel dürfte die Quanteninformatik sein, ein Fachgebiet, in dem sich Mathematiker, Physiker, Chemiker und Informatiker mit der Informationsverarbeitung und der Datenübertragung auf der Grundlage der Quantentheorie befassen. (2)

Insofern ist die Übereignung von „Information/Einbruch“ an die Quantentheorie nur ein weiteres zu untersuchendes Phänomen, naturwissenschaftlich basierend nicht auf Begriffen wie Welle oder Elektron sondern auf dem der Information. Die Quantentheorie scheint sich in besonderem Maße zur Prognose von Informationsverteilungen zu eignen. In der klassischen Physik ist selbstverständlich, dass bei Wiederholung eines Experiments unter genau denselben Bedingungen sich wieder dasselbe Ergebnis einstellt (Kausalität). In der Quantenphysik aber hat ein Experiment in der Regel mehr als ein mögliches Ergebnis. Welches Ergebnis konkret eintritt, also Realität wird, ist völlig zufällig, hat auch keine Ursache und ist prinzipiell nicht vorhersagbar (keine Kausalität mehr). An die Stelle einer genauen Vorhersage tritt die Berechnung einer Wahrscheinlichkeit. Bei vielen Wiederholungen desselben Experiments (mit gleichartig präparierten Quanten) erhält man eine reproduzierbare Verteilung der Ergebnisse, die durch die Wahrscheinlichkeitsverteilung P = |y|2 quantitativ beschrieben wird. (Born’sche Wahrscheinlichkeitsdeutung). Diese Wahrscheinlichkeitsverteilung ist bei gleichen Bedingungen (Präparation) eindeutig festgelegt und berechenbar. (3)

Informationen als solche, die den reversiblen Gesetzen der Quantenmechanik gehorchen, eignen sich für reversible Operationen über die logische Verknüpfungen erzeugt werden können. Die Eigenschaft der Reversibilität besagt, das man -im Gegensatz zur klassischen Welt- von der Ausgabe auf die Eingabe schließen kann (von der rechten Seite der Gleichung auf die linke Seite schließen kann).

Quelle:
(1) W. Heisenberg: Über den anschaulichen Inhalt der quantentheoretischen Kinematik und Mechanik. In: Zeitschrift für Physik. 43, Nr. 3, 1927, S. 172–198, doi:10.1007/BF01397280
(2) Quanteninformatik, Max Rauner, Weinheim
(3) Wesenszüge der Quantenphysik


 Vielen Dank an wegecon für seine Gedanken!

kompletter Beitrag nachzulesen unter: wegecon.de

4D-Matrix :: Zukunftsmanifestationen aus Big Data Analysen

Autor des Beitrags: wegecon

Vom Einfluss von Big Data und den Analysen von riesigen, verknüpften Datenmengen war schon öfter die Rede, heute geht es im Kern um rechtsstaatliche Aspekte, es geht darum, wie Big Data Analysen rechtsstaatskonform Verbrechen verhindern können.

Der Einsatz von Big Data gegen zukünftige Verbrechen ist dabei mindestens so revolutionär wie es die Einführung der Fingerabdruckspurensuche ab Mitte der 1880er Jahre war (in Deutschland ab 1903 in Dresden). Die Analyse der Fingerabdrücke ermöglicht eine mathematisch korrekte Zuordnung von Personen bzw. deren Papillarlinien zu Tatorten. Über Big Data Analysen wird es möglich werden, eine Matrix der Zukunft zu erstellen und in dieser Matrix exakte Angaben über einen Tatort machen zu können. Je nach Quantität und Qualität der Verwendung findenden Daten sind Aussagen über Ort, Zeit, Eigenschaften des Tatortes, Opfer usw. möglich. Unter Einschluss aller möglichen Variablen sagt die Big Data Analyse nicht eine sondern die Zukunft voraus, eine Zukunft, die man verändern kann oder nicht. Und der Clou an der Sache: man wird die Veränderung der Zukunft bereits in der Gegenwart (also aus Sicht der Zukunft der Vergangenheit) messen können.

Erste Erkenntnis: Die Zukunft ist unmittelbar abhängig von Ereignissen der Vergangenheit.

Um beispielsweise in der Erdbebenforschung  vorher zu sagen, an welcher Stelle es ein Nachbeben geben wird, benötigt man ein mathematisches Modell, mit welchem man die Wahrscheinlichkeit von Ort, Zeit und Intensität des Nachbebens möglichst genau vorhersagen kann.  In dem Modell müssen alle relevanten Daten Berücksichtigung finden: Daten über ehemalige Erdbeben, Vulkanismus, Landabsenkungen, Boden- und Gesteinsstruktur weltweit, Temperaturentwicklungen, Punktdaten,  z.B. durch chemische Analysen von Proben oder geophysikalische Messungen an einzelnen Lokationen als auch Flächen- und Liniendaten, die bestimmte Sachverhalte wie beispielsweise geologische oder bodenkundliche Einheiten repräsentieren (Quelle: BGR) usw. Anhand dieser großen Datenmengen lässt sich ein Muster (engl. pattern) entwickeln, das die Vorhersage der Nachbeben, also ein Blick in die Zukunft, zulässt. Je perfekter die Datenbasis, je genauer die Vorhersage.

Ähnlich wie bei Nachbeben oder Wellen gilt:

.menschliches Verhalten ist vorhersagbar

.es folgt Mustern

(vgl. Prof. Geoffrey Brentingham, University of California, Prof. George Mohler, University of Santa Clara, USA)

Der Umstand, dass menschliches Verhalten vorhersehbar ist und Mustern folgt, ist Kern aller Big Data Analysen, die im sozialen oder kommerziellen Bereich betrieben werden. Werbung nach einer erfolgten Big Data Analyse ist ungleich treffsicherer als konventionelle Werbung. Gleiches gilt übrigens für Wahlwerbung und dass ist ein Argument dafür, Big Data in ein Spannungsverhältnis zu Demokratie und Freiheitsrechten zu setzen.

Ein Verbrechen ist menschliches Verhalten. Habe ich genug Daten und ein Muster, aus dem ich eine Formel entwickeln kann, kann ich die Zukunft exakt vorhersagen, Tatorte und Tatzeiten vorhersehen und einiges andere mehr.

Warum wurde das nicht schon früher gemacht? Wirklich große Datenmengen fallen erst seit dem Jahr 2010 an:
2010: 1227 Exabit weltweit
2012: 2837 Exabit weltweit
Prognosen:
2015: 8591 Exabit weltweit
2020: 40026 Exabit weltweit
(Datenvolumen verdoppelt sich alle zwei Jahre
1 Exabit = 909494 Terrabit oder 931.322.574,6154785 Gigabit )
Erst seit wenigen Jahren steht eine ausreichend große Datenmenge für Big Data Analysen zur Verfügung.

Zweite Erkenntnis: riesige Datenmengen (Big Data) sind zur Vorhersage menschlichen Verhaltens geeignet und seit kurzem vorhanden.

Benutzt man das mathematische Modell, welches für die Vorhersage von Erdbeben entwickelt wurde und legt sein Muster auf reale Verbrechensdaten, stellt man verblüfft folgendes fest: es handelt sich um das gleiche Clustermuster. Einem starken Erdbeben folgen Nachbeben in der Nähe, Verbrechen lösen Nachbeben, besser: Aftershocks in der Nachbarschaft aus.

Es ist also realistisch und praktikabel, vorhandene Daten, zum Beispiel die Tatort-, Tatzeit- und Deliktdaten der letzten Jahrzehnte der Polizei für zukunftssichere Voraussagen heranzuziehen.

Zugang zu großen Datenmengen bedeutet Macht.

Über Big Data Analysen könnte der Staat seinem Bürger Straftaten nachweisen, die er noch nicht begangen hat. Dabei handelt es sich ausdrücklich nicht um nebulöse Wahrscheinlichkeiten oder Vermutungen sondern durch aus um eine mathematisch belegbare „an Sicherheit grenzende Wahrscheinlichkeit“. Eine „an Sicherheit grenzende Wahrscheinlichkeit“ definiert bereits seit Jahrzehnten die Grenze zwischen Freispruch und Verurteilung. 100%ige Sicherheit in seinem Urteil muss der Richter bereits heute nicht in sein Urteil legen, um den Delinquenten zu bestrafen.

Werden riesige Datenmengen untereinander verknüpft, ist es problemlos möglich, einen Tatortfilm zu drehen, dessen Tatereignis in der Zukunft liegt und ohne Eingriff durch die Polizei stattfinden wird. Benötigt werden Daten, die heute bereits vorliegen:  Daten über Tatorte, Infrastrukturdaten, Wetter- und Klimadaten, Daten über Personen in der Umgebung, Daten über Baustellen, Verbrauchsdaten von Gas, Wasser, Strom, Konsumverhalten der Nachbarschaft usw. Simplifiziert gibt es dann nur zwei Möglichkeiten: die Polizei greift ein und verändert die Zukunft (Folge: kein Verbrechen) oder sie greift nicht ein und das Verbrechen geschieht. In einem Rechtsstaat wäre die letzte Variante selbstredend unzulässig.

Zwingt Big Data den Rechtsstaat zum Handeln?

Die Frage ist vermutlich verfrüht:

  1. einerseits müsste man sich zunächst vergegenwärtigen, wie, mit welcher mathematischen Formel man in die Zukunft künftiger verbrechen blicken kann und
  2. betreibt der Staat noch kein spezielles data mining für Zwecke der Big Data Anwendung, mit der Folge, dass die Qualität der Daten derzeit noch kein nahezu 100%iges Ergebnis liefern wird.

Wie kann „Big Data Crime“ funktionieren?

Berechnet werden soll die Verbrechensrate in Raum und Zeit.  Diese Verbrechensrate wollen wir Λ (Lambda) nennen. Die in Raum und Zeit ablaufende Kriminalität, also die Verbrechen, die schon geschehen sind und gegenwärtige in einem definierten Raum begangen werden nennen wir µ (Mü). Und dann brauchen wir noch jene Verbrechen, die dem „großen Beben“ folgen: g

Wir beziehen unsere Gleichung also nur auf echte Verbrechensdaten, keine Strukturdaten, Daten aus anderen Quellen usw. Eine Auswertung zu Zwecken der Verbrechensbekämpfung dürfte dem Staat erlaubt sein, zumal die Daten exakt zu diesem Zweck, der Verbrechensbekämpfung erhoben worden sind. Ein Nachteil an dieser Methode ist zweifellos, dass Tatorte nur mit geschätzt ca. 25%iger Genauigkeit vorhergesagt werden können. Für exaktere Betrachtungen der Zukunft bräuchte man mehr Big Data, zB Strukturdaten (siehe weiter oben).

Eine 4-dimensionale Verbrechensmatrix, die sich aus Daten aus der bisherigen Verbrechensbekämpfung beschränkt, könnte analog zur Erdbebenforschung so aussehen:

Λ (t) = µ + ∑ g (t-t)
t < t

wobei der zweite Teil der Formel die Erkenntnisse im vorhandenen Datensatz widerspiegelt. Anhand der Formel lassen sich Crime Hotspots bestimmen. Während man heute bei der Festlegung kriminalitätsbelasteter Orte davon ausgeht, dass morgen das gleiche geschieht wie heute, weiß man über Big Data Analysen, das diese Vermutung, wenn man genau hinsieht, falsch ist. Mit Big Data Analysen kann man zukünftige Tatorte zunächst mit wesentlich höherer Wahrscheinlichkeit bestimmen.

In den USA wird in mehreren Städten das Prinzip bereits bei der Polizei angewandt, die Zahlen von Seriendelikten wie Einbruch gehen dort drastisch zurück. Der Personaleinsatz dürfte sich effizienter gestalten: der Funkwagen fährt erst  los, kurz bevor eine Tat begangen wird. Bayern plant seit ein paar Monaten ein ähnliches Projekt.

Dritte Erkenntnis: Es ist nicht untertrieben, von Signaturtatorten zu reden (vgl. diesen BLOG: Signaturangriffe von US-Drohnen).  Aus einem virtuell erschaffenen Signaturtatort wird je nach Datenqualität mit an Sicherheit grenzender Wahrscheinlichkeit ein realer Tatort, mit nicht selten tödlichen Folgen. Der zukünftige reale Tatort ließe sich bereits jetzt wie ein 3D-Spielfilm visualisieren.

Der Computer schickt einen Streifenwagen, der die Tat verhindert. Ein Szenario, welches auf den ersten Blick nur Gutes verspricht.

Aus demokratischer Sicht und aus der Perspektive des Rechtsstaates stellen sich folgende Fragen:

  • soll die Executive Computern unterstellt werden?
  • welche Daten sollen bzw. dürfen zu Big Data Crime Auswertungen verarbeitet werden?
  • Ersetzt Big Data langfristig das Legalitätsprinzip? Ermessenspielraum des Menschen gegen „totale Gewissheit“ des Computers?
  • Wie wird strafrechtlich mit Menschen umgegangen von denen wir aufgrund von Big Data Analysen mit „an Sicherheit grenzender Wahrscheinlichkeit“ wissen, dass sie ein bestimmtes Verbrechen zu einer bestimmten, zukünftigen Zeit begehen werden?

Eine Erkenntnis bleibt: die Big Data Problematik berührt die Kernbereiche unseres Gemeinwesens: Menschenrechte, Demokratie, Freiheitrechte und Privatsphäre.


Vielen Dank an wegecon für seine Gedanken!

kompletter Beitrag nachzulesen unter: wegecon.de

Das „Forum Polizeiwissenschaft“ geht an den Start!

Ihr beschäftigt euch mit Themen aus dem Bereich der Polizeiwissenschaft? Ihr möchtet eure Gedanken aus, für und über die Polizei und die weiteren Akteure der inneren Sicherheit mit der polizeiwissenschaftlichen Community teilen, zur Diskussion stellen und somit einen Beitrag zur weiteren Etablierung der Polizeiwissenschaft leisten? Das „Forum Polizeiwissenschaft“ bietet euch diese Möglichkeit! Gemeinsam mit Euch wollen wir dazu beitragen, dass der wissenschaftliche Diskurs weiter intensiviert wird!

Schickt uns eure ausformulierten Gedanken und Beiträge und wir stellen sie mit eurem Einverständnis auf dieser Plattform der polizeiwissenschaftlich interessierten Öffentlichkeit vor.

Dieses Angebot richtet sich an Studierende polizeilicher Ausbildungsinstitute sowie Studentinnen und Studenten anderer Fachbereiche, Dozentinnen und Dozenten, Sicherheits- und Polizeipraktiker, Wissenschaftler/innen und alle anderen Personen, welche sich dem Gebiet der Polizeiwissenschaft verbunden fühlen.

Angenommen werden unter anderem:

  • (Kurz-)Artikel und Hinweise auf erschienenen Zeitschriftenartikel
  • Kommentare
  • Essays
  • Thesenpapiere
  • (Buch-) Rezensionen
  • Empfehlungen/Hinweise zu veröffentlichende Texten etc.
  • Kurzbeiträge und andere Ausarbeitungen sowie
  • Veranstaltungshinweise

Ihr leistet einen Beitrag zur polizeiwissenschaftlichen Diskussion und erhaltet gleichzeitig interessante Kommentare und Beiträge zu eurem Themenkomplex.

Zusätzlich wird über den Twitter-Account @Polizei_Wiss auf eure Beiträge hingewiesen, um so eine noch größere Anzahl von Interessenten zu erreichen.

Eingesendete Beiträge bleiben das geistige Eigentum des Verfassers.