Dirbtinio intelekto šališkumas: mašinos nėra tokios objektyvios, kaip tikėjomės

VAIZDO KREDITAS:
Paveikslėlio kredito
iStock

Dirbtinio intelekto šališkumas: mašinos nėra tokios objektyvios, kaip tikėjomės

Dirbtinio intelekto šališkumas: mašinos nėra tokios objektyvios, kaip tikėjomės

Paantraštės tekstas
Visi sutinka, kad dirbtinis intelektas turėtų būti nešališkas, tačiau šališkumo pašalinimas yra problematiškas
    • Autorius:
    • autoriaus vardas
      Quantumrun Foresight
    • Vasaris 8, 2022

    Įžvalgos santrauka

    Nors duomenimis pagrįstos technologijos žada skatinti sąžiningą visuomenę, jos dažnai atspindi tuos pačius šališkumus, kuriuos turi žmonės, o tai gali sukelti neteisybę. Pavyzdžiui, dirbtinio intelekto (AI) sistemų šališkumas gali netyčia pabloginti žalingus stereotipus. Tačiau dedamos pastangos, kad dirbtinio intelekto sistemos būtų teisingesnės, nors tai kelia sudėtingų klausimų apie naudingumo ir sąžiningumo pusiausvyrą ir apgalvoto reguliavimo bei įvairovės technologijų komandose poreikį.

    AI šališkumo bendras kontekstas

    Tikimasi, kad duomenų valdomos technologijos padės žmonijai sukurti visuomenę, kurioje sąžiningumas yra norma visiems. Tačiau dabartinė tikrovė piešia kitokį vaizdą. Daugelis žmonių šališkumo, kuris praeityje lėmė neteisybę, dabar atsispindi mūsų skaitmeninį pasaulį valdančiuose algoritmuose. Šie AI sistemų šališkumas dažnai kyla dėl išankstinių asmenų, kurie kuria šias sistemas, nusistatymų, ir šis šališkumas dažnai įsiskverbia į jų darbą.

    Paimkime, pavyzdžiui, 2012 m. projektą, žinomą kaip „ImageNet“, kuriuo buvo siekiama sutelkti dėmesį į vaizdų žymėjimą mašininio mokymosi sistemoms mokyti. Didelis neuroninis tinklas, parengtas remiantis šiais duomenimis, vėliau galėjo įspūdingai tiksliai identifikuoti objektus. Tačiau atidžiau patyrę mokslininkai atrado „ImageNet“ duomenų paklaidas. Vienu konkrečiu atveju algoritmas, parengtas remiantis šiais duomenimis, buvo šališkas prielaidai, kad visi programuotojai yra baltieji žmonės.

    Dėl šio šališkumo moterys gali būti nepastebėtos, kad jos atliktų tokius vaidmenis, kai įdarbinimo procesas yra automatizuotas. Šališkumas pateko į duomenų rinkinius, nes asmuo, pridėjęs etiketes prie „moters“ atvaizdų, įtraukė papildomą etiketę, kurią sudarė menkinantis terminas. Šis pavyzdys iliustruoja, kaip tyčinis ar netyčinis šališkumas gali prasiskverbti net į sudėtingiausias dirbtinio intelekto sistemas ir taip išsaugoti žalingus stereotipus ir nelygybę.

    Trikdantis poveikis 

    Įvairių viešųjų ir privačių organizacijų mokslininkai pradėjo pastangas pašalinti duomenų ir algoritmų šališkumą. Pavyzdžiui, „ImageNet“ projekto atveju buvo naudojamas minios šaltinis, siekiant nustatyti ir pašalinti ženklinimo terminus, kurie menkina tam tikrus vaizdus. Šios priemonės parodė, kad iš tiesų įmanoma perkonfigūruoti AI sistemas, kad jos būtų teisingesnės.

    Tačiau kai kurie ekspertai teigia, kad pašalinus šališkumą duomenų rinkinys gali būti ne toks veiksmingas, ypač kai yra keletas paklaidų. Duomenų rinkiniui, kuriame nėra tam tikrų paklaidų, gali trūkti pakankamai informacijos veiksmingam naudojimui. Tai kelia klausimą, kaip atrodytų tikrai įvairus vaizdo duomenų rinkinys ir kaip jį būtų galima panaudoti nepakenkiant jo naudingumui.

    Ši tendencija pabrėžia, kad reikia apgalvoto požiūrio į AI ir duomenimis pagrįstų technologijų naudojimą. Įmonėms tai gali reikšti investicijas į šališkumo aptikimo įrankius ir technologijų komandų įvairovės skatinimą. Vyriausybėms tai galėtų apimti įgyvendinimo reglamentus, kad būtų užtikrintas sąžiningas dirbtinio intelekto naudojimas. 

    AI šališkumo pasekmės

    Platesnės AI šališkumo pasekmės gali apimti:

    • Organizacijos aktyviai rūpinasi sąžiningumu ir nediskriminavimu, nes naudoja dirbtinį intelektą, kad pagerintų našumą ir našumą. 
    • Kūrimo komandose turėti dirbtinio intelekto etikos specialistą, kuris aptiktų ir sumažintų etinę riziką projekto pradžioje. 
    • AI produktų kūrimas aiškiai atsižvelgiant į įvairovės veiksnius, tokius kaip lytis, rasė, klasė ir kultūra.
    • Įvairių grupių atstovų, kurie naudos įmonės AI produktą, išbandymas prieš jį išleidžiant.
    • Įvairios viešosios paslaugos apribotos tam tikriems visuomenės nariams.
    • Tam tikri visuomenės nariai negali gauti arba gauti tam tikrų darbo galimybių.
    • Teisėsaugos institucijos ir specialistai nesąžiningai nusitaiko į tam tikrus visuomenės narius labiau nei į kitus. 

    Klausimai, kuriuos reikia apsvarstyti

    • Ar esate optimistiškai nusiteikę, kad automatizuotas sprendimų priėmimas ateityje bus teisingas?
    • O AI sprendimų priėmimas jus labiausiai nervina?

    Įžvalgos nuorodos

    Šioje įžvalgoje buvo nurodytos šios populiarios ir institucinės nuorodos: