Prediktivna policija: Sprečavanje kriminala ili jačanje predrasuda?

KREDIT ZA SLIKU:
Image credit
iStock

Prediktivna policija: Sprečavanje kriminala ili jačanje predrasuda?

Prediktivna policija: Sprečavanje kriminala ili jačanje predrasuda?

Tekst podnaslova
Algoritmi se sada koriste za predviđanje gdje se zločin može sljedeće dogoditi, ali može li se vjerovati da podaci ostanu objektivni?
    • Autor:
    • Ime autora
      Quantumrun Foresight
    • Može 25, 2023

    Korištenje sistema umjetne inteligencije (AI) za identifikaciju obrazaca kriminala i predlaganje opcija intervencije za sprječavanje budućih kriminalnih aktivnosti može biti obećavajuća nova metodologija za agencije za provođenje zakona. Analizom podataka kao što su izvještaji o zločinima, policijski dosijei i druge relevantne informacije, algoritmi mogu identificirati obrasce i trendove koje je ljudima teško otkriti. Međutim, primjena AI u prevenciji kriminala otvara neka važna etička i praktična pitanja. 

    Prediktivni policijski kontekst

    Prediktivna policija koristi statistiku i algoritme lokalnog kriminala za predviđanje gdje će se zločini najvjerovatnije dogoditi sljedeće. Neki provajderi prediktivne policije dodatno su modificirali ovu tehnologiju kako bi predvidjeli naknadne potrese kako bi odredili područja u kojima policija treba često patrolirati kako bi spriječila zločine. Osim "vrućih tačaka", tehnologija koristi lokalne podatke o hapšenju kako bi identificirala vrstu osobe koja će vjerovatno počiniti zločin. 

    Američki provajder softvera za prediktivnu policiju Geolitica (ranije poznat kao PredPol), čiju tehnologiju trenutno koristi nekoliko tijela za provođenje zakona, tvrdi da su uklonili rasnu komponentu u svoje skupove podataka kako bi eliminirali prekomjernu policiju za obojene osobe. Međutim, neke nezavisne studije koje su proveli tehnološka web stranica Gizmodo i istraživačka organizacija The Citizen Lab otkrile su da algoritmi zapravo pojačavaju predrasude prema ranjivim zajednicama.

    Na primjer, policijski program koji je koristio algoritam za predviđanje ko je u opasnosti da bude umiješan u nasilne zločine povezane s oružjem suočio se s kritikama nakon što je otkriveno da su 85 posto onih koji su identificirani kao oni koji imaju najviše ocjene rizika bili Afroamerikanci, neki sa bez nasilnog kriminalnog dosijea. Program, nazvan Strategic Subject List, bio je pod lupom 2017. godine kada je Chicago Sun-Times dobio i objavio bazu podataka liste. Ovaj incident naglašava potencijal za pristrasnost u korištenju AI u provođenju zakona i važnost pažljivog razmatranja potencijalnih rizika i posljedica prije implementacije ovih sistema.

    Ometajući uticaj

    Postoje neke prednosti prediktivnog rada policije ako se radi kako treba. Prevencija kriminala je velika prednost, što je potvrdila Policijska uprava Los Angelesa, koja je rekla da su njihovi algoritmi rezultirali smanjenjem provala za 19 posto unutar navedenih žarišta. Još jedna prednost je donošenje odluka zasnovano na brojevima, gdje podaci diktiraju obrasce, a ne ljudske predrasude. 

    Međutim, kritičari naglašavaju da, budući da su ovi skupovi podataka dobijeni od lokalnih policijskih uprava, koje su imale povijest hapšenja više obojenih ljudi (posebno Afroamerikanaca i Latinoamerikanaca), obrasci samo naglašavaju postojeće predrasude prema ovim zajednicama. Prema Gizmodoovom istraživanju koje koristi podatke Geolitice i nekoliko agencija za provođenje zakona, Geolitica predviđanja oponašaju stvarne obrasce prekomjernog nadzora policije i identifikacije crnačkih i latino zajednica, čak i pojedinaca unutar ovih grupa bez evidencije hapšenja. 

    Organizacije za građanska prava izrazile su zabrinutost zbog sve veće upotrebe prediktivne policije bez odgovarajućeg upravljanja i regulatornih politika. Neki su tvrdili da se iza ovih algoritama koriste “prljavi podaci” (cifre dobijene koruptivnim i nezakonitim postupcima), a agencije koje ih koriste kriju te predrasude iza “pranja tehnologije” (tvrdeći da je ova tehnologija objektivna jednostavno zato što ne postoji ljudska intervencija).

    Još jedna kritika s kojom se suočava prediktivni rad policije je da je javnosti često teško razumjeti kako ovi algoritmi rade. Ovaj nedostatak transparentnosti može otežati pozivanje agencija za provođenje zakona odgovornim za odluke koje donose na osnovu predviđanja ovih sistema. Shodno tome, mnoge organizacije za ljudska prava pozivaju na zabranu prediktivnih policijskih tehnologija, posebno tehnologije za prepoznavanje lica. 

    Implikacije prediktivnog rada policije

    Šire implikacije prediktivnog rada policije mogu uključivati:

    • Građanska prava i marginalizovane grupe koje lobiraju i suprotstavljaju se široko rasprostranjenoj upotrebi prediktivne policije, posebno u zajednicama obojenih boja.
    • Pritisak na vladu da nametne politiku nadzora ili odjel za ograničavanje načina na koji se koristi prediktivna policija. Budući zakon može natjerati policijske agencije da koriste podatke o profiliranju građana bez pristrasnosti od trećih strana koje je odobrila vlada za obuku svojih odgovarajućih prediktivnih policijskih algoritama.
    • Više agencija za provođenje zakona širom svijeta oslanjaju se na neki oblik prediktivne policije kao dopunu svojim strategijama patroliranja.
    • Autoritarne vlade koriste modifikovane verzije ovih algoritama da predvide i spreče proteste građana i druge javne nemire.
    • Sve više zemalja zabranjuje tehnologije prepoznavanja lica u svojim agencijama za provođenje zakona pod sve većim pritiskom javnosti.
    • Povećani broj tužbi protiv policijskih agencija zbog zloupotrebe algoritama koji su doveli do nezakonitih ili pogrešnih hapšenja.

    Pitanja koja treba razmotriti

    • Mislite li da treba koristiti prediktivnu policiju?
    • Kako mislite da će prediktivni policijski algoritmi promijeniti način na koji se provodi pravda?

    Insight reference

    Za ovaj uvid referencirane su sljedeće popularne i institucionalne veze:

    Brennan Centar za pravdu Objašnjenje prediktivnog rada policije