Algoritmes teiken mense: Wanneer masjiene teen minderhede gedraai word

BEELDKREDIET:
Image krediet
iStock

Algoritmes teiken mense: Wanneer masjiene teen minderhede gedraai word

Algoritmes teiken mense: Wanneer masjiene teen minderhede gedraai word

Subopskrif teks
Sommige lande oefen gesigsherkenningsalgoritmes op gebaseer op kwesbare bevolkings wat nie kan instem nie.
    • Author:
    • Author naam
      Quantumrun Foresight
    • 8 Februarie 2023

    Daar is geen twyfel dat gesigsherkenningstelsels goed gebruik kan word nie, soos om vermiste kinders te help vind en mishandeling op te spoor, wanneer dit korrek opgelei word. In sommige hoëprofielgevalle word die algoritmes wat hierdie gesigsherkenningstelsels aandryf egter opgelei met behulp van data van kwesbare bevolkings sonder hul toestemming.

    Algoritmes wat mensekonteks teiken

    Beeldherkenningstelsels, soos gesigsherkenningstegnologie (FRT), is uitdagend om te ontwikkel omdat die algoritmes wat hulle aandryf groot datastelle benodig om akkurate resultate te kry. Byvoorbeeld, die Multiple Encounter-datastel sluit twee uitgebreide fotoversamelings in: diegene wat geen misdade gepleeg het nie en oorlede individue. Die datastel bevat 'n groter deel van beelde wat mense uit minderheidsgroepe vertoon as wat verteenwoordigend is van die algemene bevolking. As wetstoepassing hierdie data gebruik om algoritmes op te lei, sal dit waarskynlik bevooroordeelde resultate skep. 

    Baie beelde word sonder die foto se toestemming gebruik, veral kinders. Die Child Exploitation Image Analytics-program word sedert 2016 deur gesigsherkenningstegnologie-ontwikkelaars gebruik om hul datastelle te toets. Hierdie program bevat foto's van babas deur adolessente, van wie die meeste slagoffers is van dwang, mishandeling en seksuele aanranding, soos in die projek se dokumentasie vermeld word.

    Volgens 'n 2019-studie deur die nuuswebwerf Slate maak die VSA se gesigsherkenningsverifikasie-toetsprogram baie staat op beelde van kinders wat slagoffers van kinderpornografie was, Amerikaanse visumaansoekers (veral dié van Mexiko), en mense wat voorheen in hegtenis geneem is. en toe oorlede. Sommige beelde het gekom van 'n departement van binnelandse veiligheid (DHS)-studie waarin DHS-werknemers foto's van gereelde reisigers vir navorsingsdoeleindes geneem het. Ook die mense wie se foto's hoofsaaklik in hierdie program gebruik word, is van kriminele aktiwiteite verdink.

    Ontwrigtende impak

    China het ook FRT-algoritmes gebruik om minderhede te teiken, veral die Uyghur-Moslem-gemeenskap. In 2021 het BBC berig dat 'n kamerastelsel wat KI en gesigsherkenning gebruik om emosies op te spoor, op Uyghurs in Xinjiang getoets is. Toesig is 'n daaglikse aktiwiteit vir burgers wat in die provinsie woon. Die gebied is ook die tuiste van "heropvoedingsentrums" (wat deur menseregtegroepe hoë-sekuriteit-aanhoudingskampe genoem word), waar 'n geskatte een miljoen mense aangehou is.

    As daar nie behoorlike regeringsregulering is nie, kan enigiemand as 'n proefpersoon vir die gesigsherkenningsbedryf gebruik word. Mense se mees kwesbare oomblikke kan vasgevang en dan verder uitgebuit word deur die regeringsektore wat veronderstel is om die publiek te beskerm. Daarbenewens word sommige datastelle aan die publiek vrygestel, wat private burgers of korporasies toelaat om dit af te laai, te stoor en te gebruik. 

    Dit is onmoontlik om te sê hoeveel kommersiële stelsels op hierdie data staatmaak, maar dit is algemene praktyk dat talle akademiese projekte dit doen. Vooroordeel tussen brondatastelle skep probleme wanneer sagteware "opgelei" moet word vir sy spesifieke taak (byvoorbeeld om gesigte te identifiseer) of "getoets" moet word vir prestasie. As gevolg van verskeie gebeurtenisse waar daar teen mense gediskrimineer is as gevolg van die kleur van hul vel of ander eienskappe, was daar baie oproepe vir beter regulering oor hoe hierdie masjienleerstelsels (ML) opgelei word. Volgens Analytics Insight het slegs België en Luxemburg FRT in hul gebiede heeltemal verbied.

    Implikasies van algoritmes wat mense teiken

    Wyer implikasies van algoritmes wat mense teiken kan insluit: 

    • Menseregtegroepe beywer hul onderskeie regerings om die gebruik van FRT te beperk, insluitend toegang tot die beelde.
    • Regerings wat saamwerk om 'n globale standaard te skep wat duidelik sal definieer hoe FRT-gereedskap opgelei en aangewend sal word.
    • Verhoogde regsgedinge teen maatskappye wat onwettige opleidingsdata van minderheidsgroepe gebruik.
    • Sommige lande brei hul implementering van FRT-algoritmes uit om hul onderskeie bevolkings te monitor en te beheer.
    • Meer bevooroordeelde KI-instrumente wat spesifieke etniese groepe, seksuele oriëntasies en godsdienstige affiliasies teiken. 

    Vrae om op kommentaar te lewer

    • Wat is 'n paar maniere waarop algoritmes gebruik word om spesifieke groepe in jou gemeenskap te teiken, indien enige?
    • Hoe anders kan KI gebruik word om kwesbare bevolkings te onderdruk of uit te buit?

    Insig verwysings

    Die volgende gewilde en institusionele skakels is vir hierdie insig verwys: