Արհեստական ​​ինտելեկտի կողմնակալություն. Մեքենաներն այնքան էլ օբյեկտիվ չեն, որքան մենք ակնկալում էինք

ՊԱՏԿԵՐԻ ՎԱՐԿ.
Image վարկային
iStock- ը

Արհեստական ​​ինտելեկտի կողմնակալություն. Մեքենաներն այնքան էլ օբյեկտիվ չեն, որքան մենք ակնկալում էինք

Արհեստական ​​ինտելեկտի կողմնակալություն. Մեքենաներն այնքան էլ օբյեկտիվ չեն, որքան մենք ակնկալում էինք

Ենթավերնագրի տեքստը
Բոլորը համաձայն են, որ AI-ն պետք է լինի անկողմնակալ, բայց կողմնակալության վերացումը խնդրահարույց է
    • Հեղինակ:
    • Հեղինակ անունը
      Quantumrun Հեռատեսություն
    • Փետրվարի 8, 2022

    Insight ամփոփում

    Թեև տվյալների վրա հիմնված տեխնոլոգիաները խոստանում են խրախուսել արդար հասարակությունը, դրանք հաճախ արտացոլում են նույն կողմնակալությունները, որոնք ունեն մարդիկ՝ հանգեցնելով հնարավոր անարդարությունների: Օրինակ, արհեստական ​​ինտելեկտի (AI) համակարգերում կողմնակալությունը կարող է ակամա վատթարացնել վնասակար կարծրատիպերը: Այնուամենայնիվ, ջանքեր են գործադրվում արհեստական ​​ինտելեկտի համակարգերն ավելի արդար դարձնելու ուղղությամբ, թեև դա բարդ հարցեր է առաջացնում օգտակարության և արդարության միջև հավասարակշռության, ինչպես նաև տեխնոլոգիական թիմերում մտածված կարգավորման և բազմազանության անհրաժեշտության վերաբերյալ:

    AI-ի կողմնակալության ընդհանուր համատեքստ

    Հույս կա, որ տվյալների վրա հիմնված տեխնոլոգիաները կօգնեն մարդկությանը ստեղծել այնպիսի հասարակություն, որտեղ արդարությունը նորմ է բոլորի համար: Սակայն ներկայիս իրականությունն այլ պատկեր է տալիս. Շատ կողմնակալություններ, որոնք մարդիկ ունեն, որոնք նախկինում հանգեցրել են անարդարությունների, այժմ արտացոլվում են մեր թվային աշխարհը կառավարող ալգորիթմներում: AI համակարգերում այս կողմնակալությունները հաճախ բխում են այս համակարգերը մշակող անհատների նախապաշարմունքներից, և այդ կողմնակալությունները հաճախ ներթափանցում են նրանց աշխատանքի մեջ:

    Վերցնենք, օրինակ, 2012 թվականի մի նախագիծ, որը հայտնի է որպես ImageNet, որը փորձում էր հավաքել պատկերների պիտակավորումը մեքենայական ուսուցման համակարգերի ուսուցման համար: Այս տվյալների վրա վերապատրաստված մեծ նեյրոնային ցանցը հետագայում կարողացավ տպավորիչ ճշգրտությամբ հայտնաբերել օբյեկտները: Այնուամենայնիվ, ավելի ուշադիր ուսումնասիրելուց հետո հետազոտողները հայտնաբերել են ImageNet-ի տվյալների մեջ թաքնված կողմնակալություններ: Կոնկրետ մի դեպքում, այս տվյալների վրա պատրաստված ալգորիթմը կողմնակալ էր այն ենթադրության նկատմամբ, որ ծրագրային ապահովման բոլոր ծրագրավորողները սպիտակամորթ տղամարդիկ են:

    Այս կողմնակալությունը կարող է հանգեցնել նրան, որ կանայք անտեսվեն նման դերերի համար, երբ աշխատանքի ընդունման գործընթացը ավտոմատացված է: Կողմնակալությունները գտան իրենց ճանապարհը դեպի տվյալների հավաքածու, քանի որ «կնոջ» պատկերներին պիտակներ ավելացնող անհատը ներառում էր լրացուցիչ պիտակ, որը բաղկացած էր նսեմացնող տերմինից: Այս օրինակը ցույց է տալիս, թե ինչպես կանխակալությունը, լինի դա միտումնավոր, թե ոչ միտումնավոր, կարող է ներթափանցել նույնիսկ ամենաբարդ AI համակարգեր՝ պոտենցիալ հավերժացնելով վնասակար կարծրատիպերը և անհավասարությունները:

    Խանգարող ազդեցություն 

    Տվյալների և ալգորիթմների կողմնակալության դեմ ուղղված ջանքերը նախաձեռնվել են տարբեր պետական ​​և մասնավոր կազմակերպությունների հետազոտողների կողմից: ImageNet նախագծի դեպքում, օրինակ, քրաուդսորսինգը կիրառվել է որոշ պատկերների վրա նվաստացուցիչ լույս գցող պիտակավորման եզրույթները բացահայտելու և վերացնելու համար: Այս միջոցառումները ցույց տվեցին, որ իսկապես հնարավոր է վերակազմավորել AI համակարգերը, որպեսզի նրանք լինեն ավելի արդար:

    Այնուամենայնիվ, որոշ փորձագետներ պնդում են, որ կողմնակալության վերացումը կարող է պոտենցիալ տվյալների հավաքածուն ավելի քիչ արդյունավետ դարձնել, հատկապես, երբ գործում են բազմաթիվ կողմնակալություններ: Որոշակի կողմնակալություններից զերծ տվյալների հավաքածուն կարող է ի վերջո չունենալ բավարար տեղեկատվություն արդյունավետ օգտագործման համար: Այն հարց է բարձրացնում, թե ինչ տեսք կունենա պատկերների տվյալների իրապես բազմազան հավաքածուն, և ինչպես այն կարող է օգտագործվել՝ չվնասելով դրա օգտակարությունը:

    Այս միտումը ընդգծում է AI-ի և տվյալների վրա հիմնված տեխնոլոգիաների օգտագործման նկատմամբ մտածված մոտեցման անհրաժեշտությունը: Ընկերությունների համար դա կարող է նշանակել ներդրումներ կանխակալության հայտնաբերման գործիքներում և տեխնոլոգիական թիմերում բազմազանության խթանում: Կառավարությունների համար դա կարող է ներառել AI-ի արդար օգտագործումը ապահովելու համար կանոնակարգերի իրականացում: 

    AI-ի կողմնակալության հետևանքները

    AI-ի կողմնակալության ավելի լայն հետևանքները կարող են ներառել.

    • Կազմակերպությունները նախաձեռնող են՝ ապահովելու արդարությունն ու խտրականության բացակայությունը, քանի որ նրանք օգտագործում են արհեստական ​​ինտելեկտը՝ արտադրողականությունը և կատարողականը բարելավելու համար: 
    • Զարգացման թիմերում ունենալ արհեստական ​​ինտելեկտի էթիկայի մասնագետ՝ նախագծի սկզբում էթիկական ռիսկերը հայտնաբերելու և մեղմելու համար: 
    • AI արտադրանքների նախագծում` հստակ նկատի ունենալով բազմազանության գործոնները, ինչպիսիք են սեռը, ռասան, դասը և մշակույթը:
    • Ստանալ ներկայացուցիչներ տարբեր խմբերից, որոնք կօգտագործեն ընկերության AI արտադրանքը փորձարկելու համար այն նախքան թողարկումը:
    • Հանրության որոշ անդամներից սահմանափակվում են տարբեր հանրային ծառայություններ:
    • Հասարակության որոշ անդամներ չեն կարողանում մուտք գործել կամ որակավորվել աշխատանքի որոշակի հնարավորությունների համար:
    • Իրավապահ մարմինները և մասնագետները անարդարացիորեն թիրախավորում են հասարակության որոշ անդամներ, քան մյուսները: 

    Հարցեր, որոնք պետք է հաշվի առնել

    • Դուք լավատես ե՞ք, որ ավտոմատացված որոշումների կայացումը ապագայում արդարացի կլինի:
    • Ինչ վերաբերում է AI-ի որոշումների կայացմանը, որը ձեզ ամենաշատ նյարդայնացնում է:

    Insight հղումներ

    Հետևյալ հանրաճանաչ և ինստիտուցիոնալ հղումները վկայակոչվել են այս պատկերացման համար.