AI-tilpasning: Matchende kunstig intelligens-mål matcher menneskelige værdier

BILLEDKREDIT:
Image credit
iStock

AI-tilpasning: Matchende kunstig intelligens-mål matcher menneskelige værdier

AI-tilpasning: Matchende kunstig intelligens-mål matcher menneskelige værdier

Underoverskriftstekst
Nogle forskere mener, at der bør iværksættes foranstaltninger for at sikre, at kunstig intelligens ikke skader samfundet.
    • Forfatter:
    • Forfatter navn
      Quantumrun Foresight
    • Januar 25, 2023

    Artificial intelligence (AI) justering er, når et AI-systems mål matcher menneskelige værdier. Virksomheder som OpenAI, DeepMind og Anthropic har teams af forskere, hvis eneste fokus er at studere autoværn til forskellige scenarier, hvor dette kan ske.

    AI-justeringskontekst

    Ifølge en forskningsundersøgelse fra University of Cornell fra 2021 har flere undersøgelser vist, at værktøjer eller modeller skabt af algoritmer viser bias hentet fra de data, de blev trænet på. For eksempel i naturlig sprogbehandling (NLP) er udvalgte NLP-modeller trænet på begrænsede datasæt blevet dokumenteret med forudsigelser baseret på skadelige kønsstereotyper mod kvinder. Tilsvarende fandt andre undersøgelser ud af, at algoritmer trænet på manipulerede datasæt resulterede i raceorienterede anbefalinger, især inden for politiarbejde.

    Der er masser af eksempler, hvor maskinlæringssystemer har gjort det værre for minoriteter eller grupper, der lider af flere ulemper. Især fungerer automatisk ansigtsanalyse og sundhedsdiagnostik typisk ikke særlig godt for kvinder og farvede. Når kritiske systemer, der bør være baseret på fakta og logik i stedet for følelser, bruges i sammenhænge som tildeling af sundhedsydelser eller uddannelse, kan de gøre mere skade ved at gøre det sværere at identificere begrundelsen bag disse anbefalinger.

    Som følge heraf opretter teknologivirksomheder AI-tilpasningsteams for at fokusere på at holde algoritmerne retfærdige og humane. Forskning er afgørende for at forstå retningen af ​​avancerede AI-systemer, såvel som de udfordringer, vi kan stå over for, når AI-kapaciteten vokser.

    Forstyrrende påvirkning

    Ifølge Jan Leike, leder af AI-alignment hos OpenAI (2021), er det forståeligt, at det meste af AI-alignment-forskningen har været teoritung, da AI-systemer først er blevet i stand i 2010'erne. Når uhyre kraftfulde AI-systemer er tilpasset, er en af ​​de udfordringer, som mennesker står over for, at disse maskiner kan skabe løsninger, der er for komplicerede til at gennemgå og vurdere, om de giver mening etisk.

    Leike udtænkte en rekursiv belønningsmodellering (RRM) strategi for at løse dette problem. Med RRM undervises flere "hjælper" AI'er for at hjælpe et menneske med at vurdere, hvor godt en mere kompleks AI klarer sig. Han er optimistisk med hensyn til muligheden for at skabe noget, han omtaler som en "alignment MVP." I opstartstermer er en MVP (eller minimum levedygtigt produkt) det enklest mulige produkt, en virksomhed kan bygge for at afprøve en idé. Håbet er, at AI en dag matcher menneskelig præstation i at forske i AI og dens overensstemmelse med værdier, samtidig med at den er funktionel.

    Mens stigende interesse for AI-tilpasning er en netto positiv, tror mange analytikere på området, at meget af "etikken"-arbejdet på førende AI-laboratorier kun er public relations designet til at få tech-virksomheder til at se godt ud og undgå negativ omtale. Disse personer forventer ikke, at etisk udviklingspraksis bliver en prioritet for disse virksomheder på et tidspunkt.

    Disse observationer fremhæver betydningen af ​​tværfaglige tilgange for værditilpasningsbestræbelser, da dette er et relativt nyt område for moralsk og teknisk undersøgelse. Forskellige grene af viden bør indgå i en inkluderende forskningsdagsorden. Dette initiativ peger også på behovet for, at teknologer og politiske beslutningstagere forbliver bevidste om deres sociale kontekst og interessenter, selvom AI-systemer bliver mere avancerede.

    Implikationer af AI-justering

    Bredere implikationer af AI-justering kan omfatte: 

    • Kunstig intelligens-laboratorier ansætter forskellige etiske bestyrelser til at føre tilsyn med projekter og opfylde etiske AI-retningslinjer. 
    • Regeringer skaber love, der kræver, at virksomheder indsender deres ansvarlige AI-ramme, og hvordan de planlægger at videreudvikle deres AI-projekter.
    • Øgede kontroverser om brugen af ​​algoritmer i rekruttering, offentlig overvågning og retshåndhævelse.
    • Forskere bliver fyret fra store AI-laboratorier på grund af interessekonflikter mellem etik og virksomhedens mål.
    • Mere pres for regeringer til at regulere avancerede AI-systemer, der både er utroligt kraftfulde, men som potentielt kan krænke menneskerettighederne.

    Spørgsmål at kommentere på

    • Hvordan kan virksomheder gøres ansvarlige for de AI-systemer, de skaber?
    • Hvad er de andre potentielle farer, hvis der er AI-fejljustering?

    Indsigtsreferencer

    Følgende populære og institutionelle links blev refereret til denne indsigt: