AI-justering: Matchende kunstig intelligens-mål samsvarer med menneskelige verdier

BILDEKREDITT:
Bilde kreditt
iStock

AI-justering: Matchende kunstig intelligens-mål samsvarer med menneskelige verdier

AI-justering: Matchende kunstig intelligens-mål samsvarer med menneskelige verdier

Underoverskriftstekst
Noen forskere mener det bør iverksettes tiltak for å sikre at kunstig intelligens ikke skader samfunnet.
    • Forfatter:
    • forfatternavn
      Quantumrun Foresight
    • Januar 25, 2023

    Artificial intelligence (AI) justering er når et AI-systems mål samsvarer med menneskelige verdier. Selskaper som OpenAI, DeepMind og Anthropic har team av forskere hvis eneste fokus er å studere rekkverk for forskjellige scenarier der dette kan skje.

    AI-justeringskontekst

    I følge en forskningsstudie fra University of Cornell fra 2021 har flere studier vist at verktøy eller modeller laget av algoritmer viser skjevheter hentet fra dataene de ble trent på. For eksempel, i naturlig språkbehandling (NLP), har utvalgte NLP-modeller trent på begrensede datasett blitt dokumentert med spådommer basert på skadelige kjønnsstereotyper mot kvinner. Tilsvarende fant andre studier at algoritmer trent på tuklet datasett resulterte i rasistisk partiske anbefalinger, spesielt innen politiarbeid.

    Det er mange eksempler på at maskinlæringssystemer har gjort det verre for minoriteter eller grupper som lider av flere ulemper. Spesielt fungerer automatisert ansiktsanalyse og helsediagnostikk vanligvis ikke særlig godt for kvinner og fargede. Når kritiske systemer som bør være basert på fakta og logikk i stedet for følelser brukes i sammenhenger som tildeling av helsetjenester eller utdanning, kan de gjøre mer skade ved å gjøre det vanskeligere å identifisere begrunnelsen bak disse anbefalingene.

    Som et resultat oppretter teknologifirmaer AI-tilpasningsteam for å fokusere på å holde algoritmene rettferdige og humane. Forskning er avgjørende for å forstå retningen til avanserte AI-systemer, så vel som utfordringene vi kan møte når AI-evnen vokser.

    Forstyrrende påvirkning

    I følge Jan Leike, leder for AI-justering ved OpenAI (2021), gitt at AI-systemer først har blitt kapable på 2010-tallet, er det forståelig at det meste av AI-justeringsforskning har vært teoritung. Når uhyre kraftige AI-systemer er justert, er en av utfordringene mennesker står overfor at disse maskinene kan skape løsninger som er for kompliserte til å vurdere og vurdere om de gir mening etisk.

    Leike utviklet en strategi for rekursiv belønningsmodellering (RRM) for å fikse dette problemet. Med RRM læres flere "hjelper" AI-er for å hjelpe et menneske med å evaluere hvor godt en mer kompleks AI presterer. Han er optimistisk med tanke på muligheten for å lage noe han omtaler som en «alignment MVP». Når det gjelder oppstart, er en MVP (eller minimum levedyktig produkt) det enklest mulige produktet et selskap kan bygge for å teste ut en idé. Håpet er at AI en dag matcher menneskelig ytelse når det gjelder forskning på AI og dens samsvar med verdier, samtidig som den er funksjonell.

    Mens økende interesse for AI-tilpasning er en netto positiv, tror mange analytikere i feltet at mye av "etikk"-arbeidet ved ledende AI-laboratorier bare er PR designet for å få teknologiselskaper til å se bra ut og unngå negativ publisitet. Disse personene forventer ikke at etisk utviklingspraksis blir en prioritet for disse selskapene med det første.

    Disse observasjonene fremhever viktigheten av tverrfaglige tilnærminger for verdijusteringsinnsats, siden dette er et relativt nytt område for moralsk og teknisk undersøkelse. Ulike kunnskapsgrener bør være en del av en inkluderende forskningsagenda. Dette initiativet peker også på behovet for at teknologer og beslutningstakere forblir klar over deres sosiale kontekst og interessenter, selv når AI-systemer blir mer avanserte.

    Implikasjoner av AI-justering

    Større implikasjoner av AI-justering kan omfatte: 

    • Kunstig intelligens-laboratorier ansetter ulike etikkråd for å føre tilsyn med prosjekter og oppfylle etiske AI-retningslinjer. 
    • Regjeringer oppretter lover som krever at selskaper sender inn sitt ansvarlige AI-rammeverk og hvordan de planlegger å videreutvikle sine AI-prosjekter.
    • Økte kontroverser om bruk av algoritmer i rekruttering, offentlig overvåking og rettshåndhevelse.
    • Forskere blir sparket fra store AI-laboratorier på grunn av interessekonflikter mellom etikk og bedriftens mål.
    • Mer press for regjeringer til å regulere avanserte AI-systemer som både er utrolig kraftige, men som potensielt kan bryte menneskerettighetene.

    Spørsmål å kommentere

    • Hvordan kan firmaer gjøres ansvarlige for AI-systemene de lager?
    • Hva er de andre potensielle farene hvis det er AI-feiljustering?

    Innsiktsreferanser

    Følgende populære og institusjonelle lenker ble referert for denne innsikten: