Vooroordeel over kunstmatige intelligentie: machines zijn niet zo objectief als we hadden gehoopt

BEELDKREDIET:
Image credit
iStock

Vooroordeel over kunstmatige intelligentie: machines zijn niet zo objectief als we hadden gehoopt

Vooroordeel over kunstmatige intelligentie: machines zijn niet zo objectief als we hadden gehoopt

Onderkoptekst
Iedereen is het erover eens dat AI onbevooroordeeld moet zijn, maar het wegnemen van vooroordelen blijkt problematisch
    • Auteur:
    • auteursnaam
      Quantumrun-prognose
    • 8 februari 2022

    Samenvatting inzicht

    Hoewel datagestuurde technologieën de belofte inhouden om een ​​eerlijke samenleving te bevorderen, weerspiegelen ze vaak dezelfde vooroordelen die mensen koesteren, wat kan leiden tot mogelijk onrecht. Vooroordelen in systemen voor kunstmatige intelligentie (AI) kunnen bijvoorbeeld onbedoeld schadelijke stereotypen verergeren. Er worden echter inspanningen geleverd om AI-systemen rechtvaardiger te maken, hoewel dit complexe vragen oproept over de balans tussen bruikbaarheid en eerlijkheid, en de behoefte aan doordachte regelgeving en diversiteit in technische teams.

    AI-bias algemene context

    De hoop is dat door gegevens aangedreven technologieën de mensheid zullen helpen bij het tot stand brengen van een samenleving waarin eerlijkheid de norm is voor iedereen. De huidige realiteit laat echter een ander beeld zien. Veel van de vooroordelen die mensen hebben, die in het verleden tot onrecht hebben geleid, worden nu weerspiegeld in de algoritmen die onze digitale wereld beheersen. Deze vooroordelen in AI-systemen komen vaak voort uit vooroordelen van de personen die deze systemen ontwikkelen, en deze vooroordelen sijpelen vaak door in hun werk.

    Neem bijvoorbeeld een project uit 2012, bekend als ImageNet, dat het labelen van afbeeldingen probeerde te crowdsourcen voor de training van machine learning-systemen. Een groot neuraal netwerk dat op deze gegevens was getraind, was vervolgens in staat om objecten met een indrukwekkende nauwkeurigheid te identificeren. Bij nader inzien ontdekten onderzoekers echter vooroordelen die verborgen waren in de ImageNet-gegevens. In één specifiek geval was een algoritme dat op deze gegevens was getraind, geneigd tot de veronderstelling dat alle softwareprogrammeurs blanke mannen zijn.

    Deze vooringenomenheid kan ertoe leiden dat vrouwen voor dergelijke functies over het hoofd worden gezien wanneer het wervingsproces geautomatiseerd is. De vooroordelen vonden hun weg naar de datasets omdat de persoon die labels toevoegde aan afbeeldingen van 'vrouw' een extra label toevoegde dat bestond uit een denigrerende term. Dit voorbeeld illustreert hoe vooroordelen, opzettelijk of onopzettelijk, zelfs de meest geavanceerde AI-systemen kunnen infiltreren, waardoor mogelijk schadelijke stereotypen en ongelijkheden in stand worden gehouden.

    Disruptieve impact 

    Pogingen om vooringenomenheid in gegevens en algoritmen aan te pakken, zijn geïnitieerd door onderzoekers van verschillende publieke en private organisaties. In het geval van het ImageNet-project werd bijvoorbeeld crowdsourcing gebruikt om labeltermen die een denigrerend licht op bepaalde afbeeldingen werpen, te identificeren en te verwijderen. Deze maatregelen toonden aan dat het inderdaad mogelijk is om AI-systemen te herconfigureren om rechtvaardiger te zijn.

    Sommige experts beweren echter dat het verwijderen van vooroordelen een dataset mogelijk minder effectief zou kunnen maken, vooral wanneer er meerdere vooroordelen in het spel zijn. Een dataset die is ontdaan van bepaalde vooroordelen, kan uiteindelijk onvoldoende informatie bevatten voor effectief gebruik. Het roept de vraag op hoe een werkelijk diverse set beeldgegevens eruit zou zien en hoe deze zou kunnen worden gebruikt zonder het nut ervan in gevaar te brengen.

    Deze trend onderstreept de noodzaak van een doordachte benadering van het gebruik van AI en datagestuurde technologieën. Voor bedrijven kan dit betekenen dat ze moeten investeren in tools voor het opsporen van vooroordelen en het bevorderen van diversiteit in technische teams. Voor overheden kan het gaan om het implementeren van regelgeving om een ​​eerlijk gebruik van AI te waarborgen. 

    Implicaties van AI-bias

    Bredere implicaties van AI-bias kunnen zijn:

    • Organisaties die proactief zijn in het waarborgen van eerlijkheid en non-discriminatie, aangezien ze AI gebruiken om de productiviteit en prestaties te verbeteren. 
    • Een AI-ethicus in ontwikkelingsteams hebben om ethische risico's vroeg in een project te detecteren en te beperken. 
    • AI-producten ontwerpen met diversiteitsfactoren zoals geslacht, ras, klasse en cultuur duidelijk in het achterhoofd.
    • Vertegenwoordigers krijgen van de diverse groepen die het AI-product van een bedrijf gaan gebruiken om het te testen voordat het wordt vrijgegeven.
    • Verschillende openbare diensten worden beperkt door bepaalde leden van het publiek.
    • Bepaalde leden van het publiek hebben geen toegang tot of kwalificeren voor bepaalde vacatures.
    • Wetshandhavingsinstanties en professionals richten zich onterecht meer op bepaalde leden van de samenleving dan op andere. 

    Vragen om te overwegen

    • Bent u optimistisch dat geautomatiseerde besluitvorming in de toekomst eerlijk zal zijn?
    • Hoe zit het met AI-besluitvorming maakt u het meest nerveus?

    Insight-referenties

    Voor dit inzicht werd verwezen naar de volgende populaire en institutionele links: