Алгоритмите ги таргетираат луѓето: Кога машините се свртени против малцинствата

КРЕДИТ НА СЛИКА:
Слика кредит
iStock

Алгоритмите ги таргетираат луѓето: Кога машините се свртени против малцинствата

Алгоритмите ги таргетираат луѓето: Кога машините се свртени против малцинствата

Текст за поднаслов
Некои земји тренираат алгоритми за препознавање лице врз основа на ранливите популации кои не можат да се согласат.
    • автор:
    • име на авторот
      Quantumrun Foresight
    • Февруари 8, 2023

    Нема сомнение дека системите за препознавање лица можат добро да се искористат, како што се помагање во пронаоѓањето на исчезнатите деца и откривање на злоупотреба, кога се правилно обучени. Меѓутоа, во некои случаи од висок профил, алгоритмите што ги напојуваат овие системи за препознавање лица се обучуваат со користење на податоци од ранливи популации без нивна согласност.

    Алгоритми насочени кон контекстот на луѓето

    Системите за препознавање слики, како што е технологијата за препознавање лице (FRT), се предизвик да се развијат бидејќи на алгоритмите што ги водат им требаат големи збирки на податоци за да добијат точни резултати. На пример, збирката на податоци за повеќекратни средби вклучува две обемни колекции на фотографии: оние кои не извршиле никакви злосторства и починати лица. Податокот содржи поголем дел од слики со луѓе од малцински групи отколку што е репрезентативен за општата популација. Ако органите за спроведување на законот ги користат овие податоци за обука на алгоритми, тоа е веројатно да создаде пристрасни резултати. 

    Многу слики се користат без согласност на сликата, особено децата. Програмата Child Exploitation Image Analytics се користи од 2016 година од страна на развивачите на технологија за препознавање лице за да ги тестираат нивните збирки податоци. Оваа програма содржи слики од доенчиња преку адолесценти, од кои повеќето се жртви на принуда, злоупотреба и сексуален напад, како што е наведено во документацијата на проектот.

    Според студија од 2019 година на веб-страницата Slate, американската програма за тестирање за верификација за препознавање лице во голема мера се потпира на слики од деца кои биле жртви на детска порнографија, апликанти за американска виза (особено оние од Мексико) и луѓе кои претходно биле уапсени а потоа почина. Некои слики дојдоа од студија на Одделот за домашна безбедност (DHS) во која вработените во DHS снимија слики од редовни патници за истражувачки цели. Исто така, лицата чии фотографии првенствено се користат во оваа програма се осомничени за криминални активности.

    Нарушувачко влијание

    Кина исто така користеше FRT алгоритми за да ги таргетира малцинствата, особено ујгурската муслиманска заедница. Во 2021 година, Би-Би-Си објави дека систем на камера што користи вештачка интелигенција и препознавање на лица за откривање емоции бил тестиран на Ујгурите во Ксинџијанг. Надзорот е секојдневна активност за граѓаните кои живеат во покраината. Областа е дом и на „центри за превоспитување“ (наречени логори со високо обезбедување од страна на групите за човекови права), каде што се проценува дека се задржани околу еден милион луѓе.

    Ако не постои соодветна владина регулатива, секој може да се користи како тест предмет за индустријата за препознавање лица. Најранливите моменти на луѓето може да бидат фатени и потоа дополнително искористени од владините сектори кои треба да ја заштитат јавноста. Дополнително, некои збирки податоци се објавуваат во јавноста, дозволувајќи им на приватните граѓани или корпорации да ги преземаат, складираат и користат. 

    Невозможно е да се каже колку комерцијални системи се потпираат на овие податоци, но вообичаена практика е тоа што го прават бројни академски проекти. Пристрасноста меѓу збирките на изворни податоци создава проблеми кога софтверот мора да биде „обучен“ за неговата специфична задача (на пример, да идентификува лица) или да се „тестира“ за перформанси. Поради неколку настани кога луѓето беа дискриминирани поради бојата на нивната кожа или други карактеристики, имаше многу повици за подобра регулација во врска со тоа како се обучуваат овие системи за машинско учење (ML). Според Analytics Insight, само Белгија и Луксембург целосно го забранија FRT на нивните територии.

    Импликации на алгоритми насочени кон луѓето

    Пошироките импликации на алгоритмите кои таргетираат луѓе може да вклучуваат: 

    • Групите за човекови права лобираат кај нивните влади да ја ограничат употребата на ФРТ, вклучувајќи го и пристапот до сликите.
    • Владите работат заедно за да создадат глобален стандард кој јасно ќе дефинира како ќе се обучуваат и користат алатките на FRT.
    • Зголемени тужби против компании кои користат нелегални податоци за обука од малцински групи.
    • Некои земји ја прошируваат својата имплементација на FRT алгоритми за следење и контрола на нивните соодветни популации.
    • Попристрасни алатки за вештачка интелигенција кои се насочени кон одредени етнички групи, сексуални ориентации и религиозни припадности. 

    Прашања за коментирање

    • Кои се некои начини на кои алгоритмите се користат за таргетирање одредени групи во вашата заедница, доколку ги има?
    • Како инаку може да се користи вештачката интелигенција за угнетување или искористување на ранливите популации?