Predictive Policing: Kriminalität verhindern oder Vorurteile verstärken?

IMAGE CREDIT:
Bildnachweis
iStock

Predictive Policing: Kriminalität verhindern oder Vorurteile verstärken?

Predictive Policing: Kriminalität verhindern oder Vorurteile verstärken?

Untertiteltext
Algorithmen werden jetzt verwendet, um vorherzusagen, wo ein Verbrechen als nächstes passieren könnte, aber kann man sich darauf verlassen, dass die Daten objektiv bleiben?
    • Autor:
    • Autorenname
      Quantumrun-Vorausschau
    • 25. Mai 2023

    Der Einsatz von Systemen der künstlichen Intelligenz (KI), um Kriminalitätsmuster zu erkennen und Interventionsoptionen zur Verhinderung zukünftiger krimineller Aktivitäten vorzuschlagen, kann eine vielversprechende neue Methode für Strafverfolgungsbehörden sein. Durch die Analyse von Daten wie Kriminalberichten, Polizeiakten und anderen relevanten Informationen können Algorithmen Muster und Trends erkennen, die für Menschen möglicherweise schwer zu erkennen sind. Allerdings wirft der Einsatz von KI in der Kriminalprävention einige wichtige ethische und praktische Fragen auf. 

    Kontext der vorausschauenden Polizeiarbeit

    Predictive Policing nutzt lokale Kriminalstatistiken und Algorithmen, um vorherzusagen, wo es am wahrscheinlichsten zu Straftaten kommt. Einige Anbieter von vorausschauender Polizeiarbeit haben diese Technologie weiter modifiziert, um Nachbeben von Erdbeben vorherzusagen und so Gebiete zu lokalisieren, in denen die Polizei häufig patrouillieren sollte, um Straftaten abzuschrecken. Abgesehen von „Hotspots“ verwendet die Technologie lokale Verhaftungsdaten, um die Art von Person zu identifizieren, die wahrscheinlich Straftaten begeht. 

    Der in den USA ansässige Softwareanbieter für prädiktive Polizeiarbeit Geolitica (früher bekannt als PredPol), dessen Technologie derzeit von mehreren Strafverfolgungsbehörden eingesetzt wird, behauptet, dass sie die Rassenkomponente aus ihren Datensätzen entfernt haben, um eine übermäßige Überwachung farbiger Menschen zu verhindern. Einige unabhängige Studien der Technologie-Website Gizmodo und der Forschungsorganisation The Citizen Lab ergaben jedoch, dass die Algorithmen tatsächlich Vorurteile gegenüber gefährdeten Gemeinschaften verstärkten.

    Beispielsweise wurde ein Polizeiprogramm, das einen Algorithmus nutzte, um vorherzusagen, wer dem Risiko ausgesetzt war, in gewalttätige Waffenkriminalität verwickelt zu werden, kritisiert, nachdem bekannt wurde, dass 85 Prozent derjenigen, bei denen die höchsten Risikowerte festgestellt wurden, afroamerikanische Männer waren, einige davon sogar keine Vorstrafen wegen Gewalttätigkeit. Das Programm mit der Bezeichnung „Strategic Subject List“ geriet 2017 unter die Lupe, als die Chicago Sun-Times eine Datenbank der Liste beschaffte und veröffentlichte. Dieser Vorfall verdeutlicht das Potenzial für Voreingenommenheit beim Einsatz von KI in der Strafverfolgung und wie wichtig es ist, vor der Implementierung dieser Systeme die potenziellen Risiken und Folgen sorgfältig abzuwägen.

    Störende Wirkung

    Predictive Policing bietet einige Vorteile, wenn es richtig durchgeführt wird. Kriminalprävention ist ein großer Vorteil, wie das Los Angeles Police Department bestätigt, das mit seinen Algorithmen zu einer 19-prozentigen Reduzierung der Einbrüche an den angegebenen Hotspots geführt hat. Ein weiterer Vorteil ist die zahlenbasierte Entscheidungsfindung, bei der Daten Muster und nicht menschliche Vorurteile bestimmen. 

    Kritiker betonen jedoch, dass die Muster lediglich bestehende Vorurteile gegenüber diesen Gemeinschaften verdeutlichen, da diese Datensätze von örtlichen Polizeibehörden stammen, die in der Vergangenheit mehr farbige Menschen (insbesondere Afroamerikaner und Lateinamerikaner) verhaftet haben. Laut Gizmodos Forschung unter Verwendung von Daten von Geolitica und mehreren Strafverfolgungsbehörden ahmen die Vorhersagen von Geolitica reale Muster der übermäßigen Polizeiarbeit und der Identifizierung schwarzer und lateinamerikanischer Gemeinschaften nach, selbst von Personen innerhalb dieser Gruppen, die keine Verhaftungsprotokolle haben. 

    Bürgerrechtsorganisationen haben Bedenken hinsichtlich des zunehmenden Einsatzes vorausschauender Polizeiarbeit ohne angemessene Governance und Regulierungsrichtlinien geäußert. Einige haben argumentiert, dass „schmutzige Daten“ (durch korrupte und illegale Praktiken gewonnene Zahlen) hinter diesen Algorithmen verwendet werden, und Agenturen, die sie verwenden, verbergen diese Vorurteile hinter „Tech-Washing“ (und behaupten, diese Technologie sei objektiv, einfach weil es keine gibt). menschliches Eingreifen).

    Ein weiterer Kritikpunkt an Predictive Policing ist, dass es für die Öffentlichkeit oft schwierig ist, die Funktionsweise dieser Algorithmen zu verstehen. Dieser Mangel an Transparenz kann es schwierig machen, Strafverfolgungsbehörden für die Entscheidungen, die sie auf der Grundlage der Vorhersagen dieser Systeme treffen, zur Rechenschaft zu ziehen. Dementsprechend fordern viele Menschenrechtsorganisationen ein Verbot vorausschauender Polizeitechnologien, insbesondere der Gesichtserkennungstechnologie. 

    Auswirkungen der vorausschauenden Polizeiarbeit

    Weitere Auswirkungen der vorausschauenden Polizeiarbeit können sein:

    • Bürgerrechte und marginalisierte Gruppen betreiben Lobbyarbeit und wehren sich gegen den weit verbreiteten Einsatz vorausschauender Polizeiarbeit, insbesondere in farbigen Gemeinschaften.
    • Druck auf die Regierung, eine Aufsichtsrichtlinie oder -abteilung durchzusetzen, um den Einsatz prädiktiver Polizeiarbeit einzuschränken. Zukünftige Gesetze könnten Polizeibehörden dazu zwingen, vorurteilsfreie Profilierungsdaten von Bürgern von staatlich anerkannten Dritten zu verwenden, um ihre jeweiligen prädiktiven Polizeialgorithmen zu trainieren.
    • Weltweit verlassen sich immer mehr Strafverfolgungsbehörden auf eine Form der vorausschauenden Polizeiarbeit, um ihre Streifenstrategien zu ergänzen.
    • Autoritäre Regierungen nutzen modifizierte Versionen dieser Algorithmen, um Bürgerproteste und andere öffentliche Unruhen vorherzusagen und zu verhindern.
    • Unter zunehmendem Druck der Öffentlichkeit verbieten immer mehr Länder Gesichtserkennungstechnologien in ihren Strafverfolgungsbehörden.
    • Verstärkte Klagen gegen Polizeibehörden wegen Missbrauchs von Algorithmen, der zu rechtswidrigen oder fehlerhaften Festnahmen führte.

    Fragen zu berücksichtigen

    • Denken Sie, dass vorausschauende Polizeiarbeit eingesetzt werden sollte?
    • Wie werden Ihrer Meinung nach prädiktive Polizeialgorithmen die Umsetzung der Justiz verändern?

    Insight-Referenzen

    Für diesen Einblick wurde auf die folgenden beliebten und institutionellen Links verwiesen:

    Brennan Zentrum für Gerechtigkeit Predictive Policing erklärt