AI-anpassning: Matchande mål för artificiell intelligens matchar mänskliga värderingar

BILDKREDIT:
Bild kredit
iStock

AI-anpassning: Matchande mål för artificiell intelligens matchar mänskliga värderingar

AI-anpassning: Matchande mål för artificiell intelligens matchar mänskliga värderingar

Underrubrik text
Vissa forskare anser att åtgärder bör vidtas för att säkerställa att artificiell intelligens inte skadar samhället.
    • Författare:
    • författarnamn
      Quantumrun Framsyn
    • Januari 25, 2023

    Artificiell intelligens (AI) anpassning är när ett AI-systems mål matchar mänskliga värderingar. Företag som OpenAI, DeepMind och Anthropic har team av forskare vars enda fokus är att studera skyddsräcken för olika scenarier där detta kan hända.

    AI-anpassningskontext

    Enligt en forskningsstudie från University of Cornell från 2021 har flera studier visat att verktyg eller modeller skapade av algoritmer visar fördomar som kommer från data som de tränats på. Till exempel, i naturlig språkbehandling (NLP), har utvalda NLP-modeller som tränats på begränsade datamängder dokumenterats med förutsägelser baserade på skadliga könsstereotyper mot kvinnor. På liknande sätt fann andra studier att algoritmer som tränats på manipulerade datauppsättningar resulterade i rasistiska rekommendationer, särskilt inom polisarbete.

    Det finns gott om exempel där maskininlärningssystem har gjort det sämre för minoriteter eller grupper som lider av flera nackdelar. I synnerhet fungerar automatisk ansiktsanalys och sjukvårdsdiagnostik vanligtvis inte särskilt bra för kvinnor och färgade. När kritiska system som bör baseras på fakta och logik istället för känslor används i sammanhang som att fördela sjukvård eller utbildning, kan de göra mer skada genom att göra det svårare att identifiera resonemanget bakom dessa rekommendationer.

    Som ett resultat skapar teknikföretag AI-anpassningsteam för att fokusera på att hålla algoritmerna rättvisa och humana. Forskning är avgörande för att förstå riktningen för avancerade AI-system, såväl som de utmaningar vi kan möta när AI-kapaciteten växer.

    Störande inverkan

    Enligt Jan Leike, chef för AI-anpassning på OpenAI (2021), med tanke på att AI-system har blivit kapabla först på 2010-talet, är det förståeligt att den mesta forskningen om AI-anpassning har varit teoritung. När oerhört kraftfulla AI-system är anpassade, är en av utmaningarna som människor står inför att dessa maskiner kan skapa lösningar som är för komplicerade för att granska och bedöma om de är etiskt vettiga.

    Leike tog fram en strategi för rekursiv belöningsmodellering (RRM) för att lösa detta problem. Med RRM lärs flera "hjälpare" AI:er ut för att hjälpa en människa att utvärdera hur väl en mer komplex AI presterar. Han är optimistisk om möjligheten att skapa något han refererar till som en "alignment MVP." I starttermer är en MVP (eller minimum viable product) den enklaste möjliga produkten ett företag kan bygga för att testa en idé. Förhoppningen är att AI en dag matchar mänskliga prestationer när det gäller forskning om AI och dess anpassning till värderingar samtidigt som den är funktionell.

    Även om ett ökat intresse för AI-anpassning är positivt, tror många analytiker inom området att mycket av "etiken" på ledande AI-labb bara är PR som är utformad för att få teknikföretag att se bra ut och undvika negativ publicitet. Dessa individer förväntar sig inte att etiska utvecklingsmetoder kommer att bli en prioritet för dessa företag när som helst snart.

    Dessa observationer understryker vikten av tvärvetenskapliga tillvägagångssätt för värdeanpassningsinsatser, eftersom detta är ett relativt nytt område för moralisk och teknisk undersökning. Olika kunskapsgrenar bör ingå i en inkluderande forskningsagenda. Detta initiativ pekar också på behovet av att teknologer och beslutsfattare förblir medvetna om sitt sociala sammanhang och sina intressenter, även när AI-systemen blir mer avancerade.

    Implikationer av AI-anpassning

    Vidare implikationer av AI-anpassning kan inkludera: 

    • Artificiell intelligenslabb anställer olika etiska styrelser för att övervaka projekt och uppfylla etiska AI-riktlinjer. 
    • Regeringar skapar lagar som kräver att företag lämnar in sitt ramverk för ansvarsfull AI och hur de planerar att vidareutveckla sina AI-projekt.
    • Ökade kontroverser om användningen av algoritmer vid rekrytering, offentlig övervakning och brottsbekämpning.
    • Forskare sparkas från stora AI-labb på grund av intressekonflikter mellan etik och företagsmål.
    • Mer press för regeringar att reglera avancerade AI-system som både är otroligt kraftfulla men som potentiellt kan kränka mänskliga rättigheter.

    Frågor att kommentera

    • Hur kan företag göras ansvariga för de AI-system de skapar?
    • Vilka är de andra potentiella farorna om det finns AI-feljustering?

    Insiktsreferenser

    Följande populära och institutionella länkar hänvisades till för denna insikt: