Tekoälyn harha: Koneet eivät ole niin objektiivisia kuin toivoimme

KUVAKrediitti:
Kuva pistetilanne
iStock

Tekoälyn harha: Koneet eivät ole niin objektiivisia kuin toivoimme

Tekoälyn harha: Koneet eivät ole niin objektiivisia kuin toivoimme

Alaotsikon teksti
Kaikki ovat samaa mieltä siitä, että tekoälyn tulisi olla puolueeton, mutta harhojen poistaminen on osoittautunut ongelmalliseksi
    • Kirjoittaja:
    • tekijän nimi
      Quantumrun Foresight
    • Helmikuu 8, 2022

    Havainnon yhteenveto

    Vaikka tietoihin perustuvat teknologiat lupaavat edistää oikeudenmukaista yhteiskuntaa, ne heijastavat usein samoja ennakkoluuloja kuin ihmiset, mikä johtaa mahdollisiin epäoikeudenmukaisuuksiin. Esimerkiksi tekoälyjärjestelmien ennakkoluulot voivat vahingossa pahentaa haitallisia stereotypioita. Tekoälyjärjestelmistä on kuitenkin pyritty tekemään oikeudenmukaisempia, vaikka tämä herättääkin monimutkaisia ​​kysymyksiä hyödyllisyyden ja oikeudenmukaisuuden välisestä tasapainosta sekä harkitun sääntelyn ja monimuotoisuuden tarpeesta teknologiatiimeissä.

    AI bias yleinen konteksti

    Toivomme, että datan ohjaama teknologia auttaa ihmiskuntaa luomaan yhteiskunnan, jossa oikeudenmukaisuus on normi kaikille. Nykyinen todellisuus antaa kuitenkin toisenlaisen kuvan. Monet ihmisten ennakkoluuloista, jotka ovat aiemmin johtaneet epäoikeudenmukaisuuksiin, heijastuvat nyt digitaalista maailmaamme ohjaaviin algoritmeihin. Nämä tekoälyjärjestelmien ennakkoluulot johtuvat usein näitä järjestelmiä kehittävien henkilöiden ennakkoluuloista, ja nämä ennakkoluulot tunkeutuvat usein heidän työhönsä.

    Otetaan esimerkiksi vuoden 2012 projekti, joka tunnettiin nimellä ImageNet ja jonka tarkoituksena oli saada joukkolähteeksi kuvien merkitseminen koneoppimisjärjestelmien koulutukseen. Näillä tiedoilla koulutettu suuri neuroverkko pystyi myöhemmin tunnistamaan objektit vaikuttavalla tarkkuudella. Tarkemman tarkastelun jälkeen tutkijat löysivät kuitenkin ImageNet-tiedoissa piileviä vääristymiä. Yhdessä erityistapauksessa näille tiedoille koulutettu algoritmi oli puolueellinen olettamukseen, että kaikki ohjelmiston ohjelmoijat ovat valkoisia miehiä.

    Tämä harha voi mahdollisesti johtaa siihen, että naiset jäävät huomiotta tällaisissa rooleissa, kun palkkausprosessi on automatisoitu. Harhaukset löysivät tiensä tietokokonaisuuksiin, koska yksittäiset henkilöt, jotka lisäsivät tunnisteita "naisen" kuviin, sisälsivät lisätunnisteen, joka koostui halventavasta termistä. Tämä esimerkki havainnollistaa, kuinka tahalliset tai tahattomat ennakkoluulot voivat tunkeutua jopa kaikkein kehittyneimpiin tekoälyjärjestelmiin ja mahdollisesti ylläpitää haitallisia stereotypioita ja eriarvoisuutta.

    Häiritsevä vaikutus 

    Eri julkisten ja yksityisten organisaatioiden tutkijat ovat käynnistäneet ponnisteluja tietojen ja algoritmien harhaan puuttumiseksi. Esimerkiksi ImageNet-projektin tapauksessa joukkolähdettä käytettiin tunnistamaan ja poistamaan tiettyjä kuvia halventavaa valoa antavia merkintätermejä. Nämä toimenpiteet osoittivat, että tekoälyjärjestelmät on todellakin mahdollista konfiguroida uudelleen oikeudenmukaisemmiksi.

    Jotkut asiantuntijat kuitenkin väittävät, että harhan poistaminen saattaa tehdä tietojoukosta vähemmän tehokkaan, varsinkin kun kyseessä on useita harhoja. Tietyistä harhoista poistettu tietojoukko voi lopulta puuttua tehokkaasta käytöstä. Se herättää kysymyksen siitä, miltä todella monipuolinen kuvatietojoukko näyttäisi ja miten sitä voitaisiin käyttää hyödyllisyydestä tinkimättä.

    Tämä suuntaus korostaa tarvetta harkittuun lähestymistapaan tekoälyn ja dataohjattujen teknologioiden käyttöön. Yrityksille tämä saattaa tarkoittaa investoimista harhanilmaisutyökaluihin ja monimuotoisuuden edistämistä teknologiatiimeissä. Hallituksille se voisi sisältää täytäntöönpanosäännöksiä tekoälyn oikeudenmukaisen käytön varmistamiseksi. 

    AI-harhaisuuden vaikutukset

    Tekoälyharhan laajempia vaikutuksia voivat olla:

    • Organisaatiot ovat ennakoivia varmistaakseen oikeudenmukaisuuden ja syrjimättömyyden, kun ne hyödyntävät tekoälyä tuottavuuden ja suorituskyvyn parantamiseksi. 
    • Kehitystiimeissä on tekoälyetiikka havaitsemaan ja vähentämään eettisiä riskejä projektin varhaisessa vaiheessa. 
    • Suunnittele tekoälytuotteita monimuotoisuustekijät, kuten sukupuoli, rotu, luokka ja kulttuuri, selkeästi mielessä.
    • Saada edustajia erilaisista ryhmistä, jotka käyttävät yrityksen tekoälytuotetta testaamaan sitä ennen sen julkaisua.
    • Erilaiset julkiset palvelut on rajoitettu tietyiltä yleisön jäseniltä.
    • Tietyt yleisön jäsenet eivät voi päästä tiettyihin työmahdollisuuksiin tai saada niitä.
    • Lainvalvontaviranomaiset ja ammattilaiset kohtelevat epäoikeudenmukaisesti tiettyjä yhteiskunnan jäseniä enemmän kuin toisia. 

    Pohdittavia kysymyksiä

    • Oletko optimistinen, että automaattinen päätöksenteko on oikeudenmukaista tulevaisuudessa?
    • Entä AI-päätöksenteko saa sinut eniten hermostumaan?

    Insight-viittauksia

    Tässä oivalluksessa viitattiin seuraaviin suosittuihin ja institutionaalisiin linkkeihin: