Prediktivní policejní práce: Prevence kriminality nebo posilování předsudků?

KREDIT OBRAZU:
Kredit
iStock

Prediktivní policejní práce: Prevence kriminality nebo posilování předsudků?

Prediktivní policejní práce: Prevence kriminality nebo posilování předsudků?

Text podnadpisu
Algoritmy se nyní používají k předpovědi, kde se může stát další trestný čin, ale lze věřit, že data zůstanou objektivní?
    • Autor:
    • jméno autora
      Quantumrun Foresight
    • 25

    Použití systémů umělé inteligence (AI) k identifikaci vzorců trestné činnosti a navrhování intervenčních možností k prevenci budoucí trestné činnosti může být slibnou novou metodikou pro orgány činné v trestním řízení. Na základě analýzy dat, jako jsou hlášení o trestných činech, policejní záznamy a další relevantní informace, mohou algoritmy identifikovat vzorce a trendy, které může být pro člověka obtížné odhalit. Aplikace umělé inteligence v prevenci kriminality však vyvolává některé důležité etické a praktické otázky. 

    Prediktivní policejní kontext

    Prediktivní policejní práce využívá statistiky a algoritmy místní kriminality k předpovědi, kde se nejpravděpodobněji vyskytnou další trestné činy. Někteří poskytovatelé prediktivní policie tuto technologii dále upravili, aby předpovídali následné otřesy zemětřesení, aby určili oblasti, kde by policie měla často hlídkovat, aby odradila od zločinů. Kromě „hotspotů“ tato technologie používá místní údaje o zatčení k identifikaci typu jednotlivců, kteří pravděpodobně spáchají zločiny. 

    Americký poskytovatel prediktivního policejního softwaru Geolitica (dříve známý jako PredPol), jehož technologii v současné době používá několik orgánů činných v trestním řízení, tvrdí, že ze svých datových sad odstranil komponentu rasy, aby eliminoval nadměrnou kontrolu lidí s jinou barvou pleti. Některé nezávislé studie provedené technickým webem Gizmodo a výzkumnou organizací The Citizen Lab však zjistily, že algoritmy ve skutečnosti posílily zaujatost vůči zranitelným komunitám.

    Například policejní program, který používal algoritmus k předpovídání toho, kdo byl ohrožen zapletením se do násilných trestných činů souvisejících se střelnou zbraní, čelil kritice poté, co vyšlo najevo, že 85 procent těch, u nichž bylo zjištěno nejvyšší riziko, byli afroameričtí muži, někteří s bez předchozího násilného trestního rejstříku. Program nazvaný Strategic Subject List se dostal pod kontrolu v roce 2017, kdy Chicago Sun-Times získal a zveřejnil databázi tohoto seznamu. Tento incident zdůrazňuje potenciál předpojatosti při používání umělé inteligence při vymáhání práva a důležitost pečlivého zvážení možných rizik a důsledků před implementací těchto systémů.

    Rušivý dopad

    Prediktivní policejní práce má určité výhody, pokud je prováděna správně. Prevence kriminality je hlavní výhodou, jak potvrdilo losangeleské policejní oddělení, které uvedlo, že jejich algoritmy vedly k 19procentnímu snížení vloupání do uvedených hotspotů. Další výhodou je rozhodování na základě čísel, kde data diktují vzorce, nikoli lidské předsudky. 

    Kritici však zdůrazňují, že protože tyto soubory dat pocházejí z místních policejních oddělení, které v minulosti zatýkaly více lidí jiné barvy pleti (zejména Afroameričany a Latinoameričany), vzory pouze zdůrazňují existující předsudky vůči těmto komunitám. Podle průzkumu společnosti Gizmodo využívající data od Geolitica a několika donucovacích orgánů předpovědi Geolitica napodobují skutečné vzorce nadměrné kontroly a identifikace černošských a latinskoamerických komunit, dokonce i jednotlivců v těchto skupinách s nulovými záznamy o zatčení. 

    Organizace pro občanská práva vyjádřily obavy z rostoucího používání prediktivní policie bez řádné správy a regulačních politik. Někteří tvrdili, že za těmito algoritmy jsou používána „špinavá data“ (čísla získaná korupčními a nelegálními praktikami) a agentury, které je používají, skrývají tyto předsudky za „tech-washing“ (prohlašují, že tato technologie je objektivní jednoduše proto, že neexistuje žádná lidský zásah).

    Další kritikou prediktivní policie je, že pro veřejnost je často obtížné pochopit, jak tyto algoritmy fungují. Tento nedostatek transparentnosti může znesnadnit donucovací orgány odpovědné za rozhodnutí, která učiní na základě předpovědí těchto systémů. V souladu s tím mnoho organizací pro lidská práva volá po zákazu prediktivních policejních technologií, zejména technologie rozpoznávání obličeje. 

    Důsledky prediktivní policie

    Širší důsledky prediktivní policie mohou zahrnovat:

    • Občanská práva a marginalizované skupiny lobující a tlačící se proti rozšířenému používání prediktivní policie, zejména v rámci barevných komunit.
    • Tlak na vládu, aby zavedla politiku dohledu nebo ministerstvo, které omezí používání prediktivní policie. Budoucí legislativa může donutit policejní orgány, aby využívaly neobjektivní údaje o profilování občanů od vládou schválených třetích stran k trénování jejich příslušných prediktivních policejních algoritmů.
    • Více orgánů činných v trestním řízení po celém světě se spoléhá na nějakou formu prediktivního policejního dohledu, který doplní jejich strategie hlídkování.
    • Autoritářské vlády používají upravené verze těchto algoritmů k předvídání a prevenci občanských protestů a jiných veřejných nepokojů.
    • Stále více zemí zakazuje technologie rozpoznávání obličejů ve svých donucovacích orgánech pod rostoucím tlakem veřejnosti.
    • Zvýšený počet žalob proti policejním agenturám za zneužití algoritmů, které vedly k nezákonnému nebo chybnému zatčení.

    Otázky k zamyšlení

    • Myslíte si, že by se měla používat prediktivní policie?
    • Jak si myslíte, že prediktivní policejní algoritmy změní způsob implementace spravedlnosti?

    Statistikové reference

    Následující populární a institucionální odkazy byly uvedeny pro tento náhled:

    Brennanové centrum pro spravedlnost Vysvětlení prediktivní policie