Tekoälyn kohdistaminen: Tekoälytavoitteet vastaavat ihmisen arvoja

KUVAKrediitti:
Kuva pistetilanne
iStock

Tekoälyn kohdistaminen: Tekoälytavoitteet vastaavat ihmisen arvoja

Tekoälyn kohdistaminen: Tekoälytavoitteet vastaavat ihmisen arvoja

Alaotsikon teksti
Jotkut tutkijat uskovat, että olisi toteutettava toimenpiteitä sen varmistamiseksi, että tekoäly ei vahingoita yhteiskuntaa.
    • Kirjoittaja:
    • tekijän nimi
      Quantumrun Foresight
    • Tammikuu 25, 2023

    Tekoälyn (AI) kohdistaminen tarkoittaa sitä, että tekoälyjärjestelmän tavoitteet vastaavat ihmisen arvoja. OpenAI:n, DeepMindin ja Anthropicin kaltaisilla yrityksillä on tutkijaryhmiä, joiden ainoana tavoitteena on tutkia suojakaiteita eri skenaarioissa, joissa näin voi tapahtua.

    AI-kohdistuskonteksti

    Vuonna 2021 tehdyn Cornellin yliopiston tutkimuksen mukaan useat tutkimukset ovat osoittaneet, että algoritmien luomat työkalut tai mallit näyttävät harhaa, joka on peräisin niistä tiedoista, joihin ne on koulutettu. Esimerkiksi luonnollisen kielen käsittelyssä (NLP) on dokumentoitu rajoitettuihin tietokokonaisuuksiin koulutettuja NLP-malleja, jotka tekevät ennusteita naisiin kohdistuvien haitallisten sukupuolistereotypioiden perusteella. Samoin muissa tutkimuksissa havaittiin, että peukaloidulle datajoukolle koulutetut algoritmit johtivat rodullisesti puolueellisiin suosituksiin, erityisesti poliisitoiminnassa.

    On paljon esimerkkejä, joissa koneoppimisjärjestelmät ovat menestyneet huonommin vähemmistöjen tai ryhmien kohdalla, jotka kärsivät monista haitoista. Erityisesti automaattinen kasvoanalyysi ja terveydenhuollon diagnostiikka eivät yleensä toimi kovin hyvin naisille ja värikkäille ihmisille. Kun kriittisiä järjestelmiä, joiden pitäisi perustua tosiasioihin ja logiikkaan tunteiden sijaan, käytetään esimerkiksi terveydenhuollon tai koulutuksen kohdentamisessa, ne voivat tehdä enemmän vahinkoa vaikeuttamalla näiden suositusten taustalla olevien perusteiden tunnistamista.

    Tämän seurauksena teknologiayritykset luovat tekoälyn kohdistamisryhmiä keskittyäkseen pitämään algoritmit oikeudenmukaisina ja inhimillisinä. Tutkimus on välttämätöntä kehittyneiden tekoälyjärjestelmien suunnan ja haasteiden ymmärtämiseksi, joita saatamme kohdata tekoälyvalmiuksien kasvaessa.

    Häiritsevä vaikutus

    OpenAI:n (2021) tekoälyn kohdistamisesta vastaavan johtajan Jan Leiken mukaan on ymmärrettävää, että suurin osa tekoälyn kohdistustutkimuksesta on ollut teoriaraskasta, koska tekoälyjärjestelmät ovat tulleet valmiiksi vasta 2010-luvulla. Kun äärimmäisen tehokkaat tekoälyjärjestelmät kohdistetaan, yksi ihmisten kohtaamista haasteista on se, että nämä koneet voivat luoda ratkaisuja, jotka ovat liian monimutkaisia ​​tarkistettavaksi ja arvioitavaksi, ovatko ne eettisesti järkeviä.

    Leike kehitti rekursiivisen palkkiomallinnuksen (RRM) strategian tämän ongelman korjaamiseksi. RRM:n avulla opetetaan useita "auttajatekoälyjä", jotka auttavat ihmistä arvioimaan, kuinka hyvin monimutkaisempi tekoäly toimii. Hän suhtautuu optimistisesti mahdollisuuteen luoda jotain, johon hän viittaa "yhdenmukaisuuden MVP:nä". Startup-termeissä MVP (tai vähintään elinkelpoinen tuote) on yksinkertaisin mahdollinen tuote, jonka yritys voi rakentaa idean testaamiseksi. Toiveena on, että tekoäly vastaa jonain päivänä ihmisen suorituskykyä tekoälyn tutkimisessa ja sen yhdenmukaistamista arvojen kanssa samalla, kun se on myös toimiva.

    Vaikka kasvava kiinnostus tekoälyn suuntaamista kohtaan on myönteinen asia, monet alan analyytikot ajattelevat, että suuri osa johtavien tekoälylaboratorioiden "eettisestä" työstä on vain PR-toimintaa, jonka tarkoituksena on saada teknologiayritykset näyttämään hyvältä ja välttämään negatiivista julkisuutta. Nämä henkilöt eivät odota eettisten kehityskäytäntöjen nousevan näiden yritysten etusijalle lähiaikoina.

    Nämä havainnot korostavat monitieteisten lähestymistapojen tärkeyttä arvojen mukauttamispyrkimyksissä, koska tämä on suhteellisen uusi moraalisen ja teknisen tutkimuksen alue. Tiedon eri osa-alueiden tulisi olla osa kattavaa tutkimusohjelmaa. Tämä aloite osoittaa myös, että tekniikkojen ja poliittisten päättäjien on pysyttävä tietoisina sosiaalisesta kontekstistaan ​​ja sidosryhmistään, vaikka tekoälyjärjestelmät kehittyvätkin.

    AI-linjauksen vaikutukset

    AI-linjauksen laajempia vaikutuksia voivat olla: 

    • Tekoälylaboratoriot, jotka palkkaavat erilaisia ​​eettisiä lautakuntia valvomaan projekteja ja noudattamaan eettisiä tekoälyohjeita. 
    • Hallitukset luovat lakeja, jotka vaativat yrityksiä esittämään vastuullisen tekoälykehyksensä ja kuinka ne aikovat kehittää tekoälyprojektejaan edelleen.
    • Lisääntyvät kiistat algoritmien käytöstä rekrytoinnissa, julkisessa valvonnassa ja lainvalvonnassa.
    • Tutkijat erotetaan suurista tekoälylaboratorioista etiikan ja yrityksen tavoitteiden välisten eturistiriitojen vuoksi.
    • Lisää paineita hallituksille säännellä kehittyneitä tekoälyjärjestelmiä, jotka ovat sekä uskomattoman tehokkaita, että voivat mahdollisesti loukata ihmisoikeuksia.

    Kommentoitavia kysymyksiä

    • Kuinka yritykset voidaan saada vastuuseen luomistaan ​​tekoälyjärjestelmistä?
    • Mitä muita mahdollisia vaaroja voi olla, jos tekoäly on virheellinen?

    Insight-viittauksia

    Tässä oivalluksessa viitattiin seuraaviin suosittuihin ja institutionaalisiin linkkeihin: