Prediktivt politiarbeid: Forebygge kriminalitet eller forsterke skjevheter?

BILDEKREDITT:
Bilde kreditt
iStock

Prediktivt politiarbeid: Forebygge kriminalitet eller forsterke skjevheter?

Prediktivt politiarbeid: Forebygge kriminalitet eller forsterke skjevheter?

Underoverskriftstekst
Algoritmer brukes nå til å forutsi hvor en forbrytelse kan skje neste gang, men kan dataene stole på for å forbli objektive?
    • Forfatter:
    • forfatternavn
      Quantumrun Foresight
    • Kan 25, 2023

    Å bruke kunstig intelligens (AI)-systemer for å identifisere kriminalitetsmønstre og foreslå intervensjonsalternativer for å forhindre fremtidig kriminell aktivitet kan være en lovende ny metodikk for rettshåndhevelsesbyråer. Ved å analysere data som kriminalitetsrapporter, politijournaler og annen relevant informasjon, kan algoritmer identifisere mønstre og trender som kan være vanskelige for mennesker å oppdage. Imidlertid reiser bruken av AI i kriminalitetsforebygging noen viktige etiske og praktiske spørsmål. 

    Prediktiv politisammenheng

    Prediktiv politiarbeid bruker lokal kriminalitetsstatistikk og algoritmer for å forutsi hvor det er mest sannsynlig at kriminalitet skjer neste gang. Noen leverandører av prediktivt politi har ytterligere modifisert denne teknologien for å forutsi jordskjelvetterskjelv for å finne områder hvor politiet ofte bør patruljere for å avskrekke forbrytelser. Bortsett fra "hotspots", bruker teknologien lokale arrestasjonsdata for å identifisere typen individer som sannsynligvis vil begå forbrytelser. 

    Den amerikanske leverandøren av prediktiv politiprogramvare Geolitica (tidligere kjent som PredPol), hvis teknologi for tiden brukes av flere rettshåndhevende enheter, hevder at de har fjernet rasekomponenten i datasettene deres for å eliminere overpolitisering av fargede personer. Noen uavhengige studier utført av teknologinettstedet Gizmodo og forskningsorganisasjonen The Citizen Lab fant imidlertid at algoritmene faktisk forsterket skjevheter mot sårbare samfunn.

    Et politiprogram som brukte en algoritme for å forutsi hvem som sto i fare for å bli involvert i voldelig våpenrelatert kriminalitet, møtte for eksempel kritikk etter at det ble avslørt at 85 prosent av de som ble identifisert med høyest risikoscore var afroamerikanske menn, noen med ingen tidligere voldskriminalitet. Programmet, kalt Strategic Subject List, ble undersøkt i 2017 da Chicago Sun-Times innhentet og publiserte en database med listen. Denne hendelsen fremhever potensialet for skjevhet ved bruk av kunstig intelligens i rettshåndhevelse og viktigheten av å vurdere de potensielle risikoene og konsekvensene nøye før disse systemene implementeres.

    Forstyrrende påvirkning

    Det er noen fordeler med prediktivt politiarbeid hvis det gjøres riktig. Kriminalitetsforebygging er en stor fordel, som bekreftet av Los Angeles Police Department, som sa at deres algoritmer resulterte i en 19 prosent reduksjon av innbrudd innenfor de angitte hotspotene. En annen fordel er tallbasert beslutningstaking, der data dikterer mønstre, ikke menneskelige skjevheter. 

    Kritikere understreker imidlertid at fordi disse datasettene er hentet fra lokale politiavdelinger, som hadde en historie med å arrestere flere fargede mennesker (spesielt afroamerikanere og latinamerikanere), fremhever mønstrene bare eksisterende skjevheter mot disse samfunnene. I følge Gizmodos forskning som bruker data fra Geolitica og flere rettshåndhevelsesbyråer, etterligner Geoliticas spådommer virkelige mønstre for overpolitisering og identifisering av svarte og latinosamfunn, til og med individer innenfor disse gruppene med null arrestasjonsregistreringer. 

    Borgerrettighetsorganisasjoner har uttrykt bekymring over den økende bruken av prediktiv politiarbeid uten riktig styring og reguleringspolitikk. Noen har hevdet at «skitne data» (tall innhentet gjennom korrupte og ulovlige praksiser) brukes bak disse algoritmene, og byråer som bruker dem skjuler disse skjevhetene bak «tech-washing» (hevder at denne teknologien er objektiv rett og slett fordi det ikke finnes noen menneskelig inngripen).

    En annen kritikk mot prediktiv politiarbeid er at det ofte er vanskelig for publikum å forstå hvordan disse algoritmene fungerer. Denne mangelen på åpenhet kan gjøre det vanskelig å holde rettshåndhevende organer ansvarlige for avgjørelsene de tar basert på spådommene til disse systemene. Følgelig ber mange menneskerettighetsorganisasjoner om forbud mot prediktiv polititeknologi, spesielt ansiktsgjenkjenningsteknologi. 

    Implikasjoner av prediktivt politiarbeid

    Større implikasjoner av prediktivt politiarbeid kan omfatte:

    • Sivile rettigheter og marginaliserte grupper lobbyer og presser tilbake mot den utbredte bruken av prediktiv politiarbeid, spesielt innenfor fargede samfunn.
    • Press for regjeringen til å pålegge en tilsynspolitikk eller avdeling for å begrense hvordan prediktivt politiarbeid brukes. Fremtidig lovgivning kan tvinge politibyråer til å bruke skjevhetsfrie innbyggerprofileringsdata fra myndighetsgodkjente tredjeparter for å trene deres respektive prediktive politialgoritmer.
    • Flere rettshåndhevelsesbyråer over hele verden stoler på en form for prediktiv politiarbeid for å utfylle patruljeringsstrategiene deres.
    • Autoritære myndigheter bruker modifiserte versjoner av disse algoritmene for å forutsi og forhindre innbyggerprotester og andre offentlige forstyrrelser.
    • Flere land forbyr ansiktsgjenkjenningsteknologier i sine rettshåndhevelsesbyråer under økende press fra publikum.
    • Økte søksmål mot politibyråer for misbruk av algoritmer som førte til ulovlige eller feilaktige arrestasjoner.

    Spørsmål å vurdere

    • Synes du prediktivt politi bør brukes?
    • Hvordan tror du prediktive politialgoritmer vil endre hvordan rettferdighet implementeres?

    Innsiktsreferanser

    Følgende populære og institusjonelle lenker ble referert for denne innsikten:

    Brennan senter for rettferdighet Prediktiv politiarbeid forklart