AI-afstemming: het afstemmen van doelen op het gebied van kunstmatige intelligentie komt overeen met menselijke waarden

BEELDKREDIET:
Image credit
iStock

AI-afstemming: het afstemmen van doelen op het gebied van kunstmatige intelligentie komt overeen met menselijke waarden

AI-afstemming: het afstemmen van doelen op het gebied van kunstmatige intelligentie komt overeen met menselijke waarden

Onderkoptekst
Sommige onderzoekers zijn van mening dat er maatregelen moeten worden genomen om ervoor te zorgen dat kunstmatige intelligentie de samenleving niet schaadt.
    • Auteur:
    • auteursnaam
      Quantumrun-prognose
    • 25 januari 2023

    Uitlijning van kunstmatige intelligentie (AI) is wanneer de doelen van een AI-systeem overeenkomen met menselijke waarden. Bedrijven als OpenAI, DeepMind en Anthropic hebben teams van onderzoekers die zich uitsluitend richten op het bestuderen van vangrails voor verschillende scenario's waarin dit zou kunnen gebeuren.

    AI-uitlijningscontext

    Volgens een onderzoek van de University of Cornell uit 2021 hebben verschillende onderzoeken aangetoond dat tools of modellen die door algoritmen zijn gemaakt, vooringenomenheid vertonen die voortkomt uit de gegevens waarop ze zijn getraind. Bij natuurlijke taalverwerking (NLP) zijn bijvoorbeeld geselecteerde NLP-modellen gedocumenteerd die zijn getraind op beperkte datasets en voorspellingen doen op basis van schadelijke genderstereotypen tegen vrouwen. Evenzo ontdekten andere onderzoeken dat algoritmen die waren getraind op geknoeide datasets, resulteerden in raciaal bevooroordeelde aanbevelingen, met name bij de politie.

    Er zijn tal van voorbeelden waarin machine learning-systemen het slechter hebben gedaan voor minderheden of groepen met meerdere nadelen. Met name geautomatiseerde gezichtsanalyse en medische diagnostiek werken doorgaans niet zo goed voor vrouwen en mensen van kleur. Wanneer kritieke systemen die gebaseerd zouden moeten zijn op feiten en logica in plaats van op emotie, worden gebruikt in contexten zoals het toewijzen van gezondheidszorg of onderwijs, kunnen ze meer schade aanrichten door het moeilijker te maken om de redenering achter deze aanbevelingen te achterhalen.

    Als gevolg hiervan creëren technologiebedrijven AI-afstemmingsteams om zich te concentreren op het eerlijk en humaan houden van algoritmen. Onderzoek is essentieel om de richting van geavanceerde AI-systemen te begrijpen, evenals de uitdagingen waarmee we te maken kunnen krijgen naarmate de AI-mogelijkheden groeien.

    Disruptieve impact

    Volgens Jan Leike, hoofd van AI-afstemming bij OpenAI (2021), is het begrijpelijk dat het meeste onderzoek naar AI-afstemming theoretisch zwaar is geweest, gezien het feit dat AI-systemen pas in de jaren 2010 capabel zijn geworden. Wanneer immens krachtige AI-systemen op elkaar zijn afgestemd, is een van de uitdagingen waarmee mensen worden geconfronteerd, dat deze machines oplossingen kunnen creëren die te ingewikkeld zijn om te beoordelen of ze ethisch zinvol zijn.

    Leike bedacht een strategie voor recursieve beloningsmodellering (RRM) om dit probleem op te lossen. Met RRM worden verschillende "helper" AI's aangeleerd om een ​​mens te helpen evalueren hoe goed een complexere AI presteert. Hij is optimistisch over de mogelijkheid om iets te creëren dat hij een 'uitlijnings-MVP' noemt. In startup-termen is een MVP (of minimaal levensvatbaar product) het eenvoudigst mogelijke product dat een bedrijf kan bouwen om een ​​idee te testen. De hoop is dat AI op een dag de menselijke prestaties evenaart bij het onderzoeken van AI en de afstemming ervan op waarden, terwijl het ook functioneel is.

    Hoewel de toenemende belangstelling voor AI-afstemming netto positief is, denken veel analisten in het veld dat veel van het "ethische" werk in toonaangevende AI-labs slechts public relations is, bedoeld om technologiebedrijven er goed uit te laten zien en negatieve publiciteit te vermijden. Deze personen verwachten niet dat ethische ontwikkelingspraktijken binnenkort een prioriteit zullen worden voor deze bedrijven.

    Deze observaties onderstrepen het belang van interdisciplinaire benaderingen voor inspanningen om waarden op elkaar af te stemmen, aangezien dit een relatief nieuw gebied van moreel en technisch onderzoek is. Verschillende takken van kennis moeten deel uitmaken van een inclusieve onderzoeksagenda. Dit initiatief wijst ook op de noodzaak voor technologen en beleidsmakers om zich bewust te blijven van hun maatschappelijke context en stakeholders, ook nu AI-systemen steeds geavanceerder worden.

    Implicaties van AI-afstemming

    Bredere implicaties van AI-afstemming kunnen zijn: 

    • Labs voor kunstmatige intelligentie huren diverse ethische raden in om toezicht te houden op projecten en te voldoen aan ethische AI-richtlijnen. 
    • Overheden die wetten opstellen die bedrijven verplichten hun verantwoorde AI-kader in te dienen en hoe ze van plan zijn hun AI-projecten verder te ontwikkelen.
    • Toegenomen controverses over het gebruik van algoritmen bij rekrutering, openbaar toezicht en wetshandhaving.
    • Onderzoekers worden ontslagen uit grote AI-labs vanwege belangenconflicten tussen ethiek en bedrijfsdoelen.
    • Meer druk voor regeringen om geavanceerde AI-systemen te reguleren die zowel ongelooflijk krachtig zijn, maar mogelijk mensenrechten schenden.

    Vragen om op te reageren

    • Hoe kunnen bedrijven verantwoordelijk worden gehouden voor de AI-systemen die ze maken?
    • Wat zijn de andere potentiële gevaren als er een verkeerde uitlijning van de AI is?

    Insight-referenties

    Voor dit inzicht werd verwezen naar de volgende populaire en institutionele links: