Արհեստական ինտելեկտի կողմնակալություն. Մեքենաներն այնքան էլ օբյեկտիվ չեն, որքան մենք ակնկալում էինք
Արհեստական ինտելեկտի կողմնակալություն. Մեքենաներն այնքան էլ օբյեկտիվ չեն, որքան մենք ակնկալում էինք
Արհեստական ինտելեկտի կողմնակալություն. Մեքենաներն այնքան էլ օբյեկտիվ չեն, որքան մենք ակնկալում էինք
- Հեղինակ:
- Փետրվարի 8, 2022
Insight ամփոփում
Թեև տվյալների վրա հիմնված տեխնոլոգիաները խոստանում են խրախուսել արդար հասարակությունը, դրանք հաճախ արտացոլում են նույն կողմնակալությունները, որոնք ունեն մարդիկ՝ հանգեցնելով հնարավոր անարդարությունների: Օրինակ, արհեստական ինտելեկտի (AI) համակարգերում կողմնակալությունը կարող է ակամա վատթարացնել վնասակար կարծրատիպերը: Այնուամենայնիվ, ջանքեր են գործադրվում արհեստական ինտելեկտի համակարգերն ավելի արդար դարձնելու ուղղությամբ, թեև դա բարդ հարցեր է առաջացնում օգտակարության և արդարության միջև հավասարակշռության, ինչպես նաև տեխնոլոգիական թիմերում մտածված կարգավորման և բազմազանության անհրաժեշտության վերաբերյալ:
AI-ի կողմնակալության ընդհանուր համատեքստ
Հույս կա, որ տվյալների վրա հիմնված տեխնոլոգիաները կօգնեն մարդկությանը ստեղծել այնպիսի հասարակություն, որտեղ արդարությունը նորմ է բոլորի համար: Սակայն ներկայիս իրականությունն այլ պատկեր է տալիս. Շատ կողմնակալություններ, որոնք մարդիկ ունեն, որոնք նախկինում հանգեցրել են անարդարությունների, այժմ արտացոլվում են մեր թվային աշխարհը կառավարող ալգորիթմներում: AI համակարգերում այս կողմնակալությունները հաճախ բխում են այս համակարգերը մշակող անհատների նախապաշարմունքներից, և այդ կողմնակալությունները հաճախ ներթափանցում են նրանց աշխատանքի մեջ:
Վերցնենք, օրինակ, 2012 թվականի մի նախագիծ, որը հայտնի է որպես ImageNet, որը փորձում էր հավաքել պատկերների պիտակավորումը մեքենայական ուսուցման համակարգերի ուսուցման համար: Այս տվյալների վրա վերապատրաստված մեծ նեյրոնային ցանցը հետագայում կարողացավ տպավորիչ ճշգրտությամբ հայտնաբերել օբյեկտները: Այնուամենայնիվ, ավելի ուշադիր ուսումնասիրելուց հետո հետազոտողները հայտնաբերել են ImageNet-ի տվյալների մեջ թաքնված կողմնակալություններ: Կոնկրետ մի դեպքում, այս տվյալների վրա պատրաստված ալգորիթմը կողմնակալ էր այն ենթադրության նկատմամբ, որ ծրագրային ապահովման բոլոր ծրագրավորողները սպիտակամորթ տղամարդիկ են:
Այս կողմնակալությունը կարող է հանգեցնել նրան, որ կանայք անտեսվեն նման դերերի համար, երբ աշխատանքի ընդունման գործընթացը ավտոմատացված է: Կողմնակալությունները գտան իրենց ճանապարհը դեպի տվյալների հավաքածու, քանի որ «կնոջ» պատկերներին պիտակներ ավելացնող անհատը ներառում էր լրացուցիչ պիտակ, որը բաղկացած էր նսեմացնող տերմինից: Այս օրինակը ցույց է տալիս, թե ինչպես կանխակալությունը, լինի դա միտումնավոր, թե ոչ միտումնավոր, կարող է ներթափանցել նույնիսկ ամենաբարդ AI համակարգեր՝ պոտենցիալ հավերժացնելով վնասակար կարծրատիպերը և անհավասարությունները:
Խանգարող ազդեցություն
Տվյալների և ալգորիթմների կողմնակալության դեմ ուղղված ջանքերը նախաձեռնվել են տարբեր պետական և մասնավոր կազմակերպությունների հետազոտողների կողմից: ImageNet նախագծի դեպքում, օրինակ, քրաուդսորսինգը կիրառվել է որոշ պատկերների վրա նվաստացուցիչ լույս գցող պիտակավորման եզրույթները բացահայտելու և վերացնելու համար: Այս միջոցառումները ցույց տվեցին, որ իսկապես հնարավոր է վերակազմավորել AI համակարգերը, որպեսզի նրանք լինեն ավելի արդար:
Այնուամենայնիվ, որոշ փորձագետներ պնդում են, որ կողմնակալության վերացումը կարող է պոտենցիալ տվյալների հավաքածուն ավելի քիչ արդյունավետ դարձնել, հատկապես, երբ գործում են բազմաթիվ կողմնակալություններ: Որոշակի կողմնակալություններից զերծ տվյալների հավաքածուն կարող է ի վերջո չունենալ բավարար տեղեկատվություն արդյունավետ օգտագործման համար: Այն հարց է բարձրացնում, թե ինչ տեսք կունենա պատկերների տվյալների իրապես բազմազան հավաքածուն, և ինչպես այն կարող է օգտագործվել՝ չվնասելով դրա օգտակարությունը:
Այս միտումը ընդգծում է AI-ի և տվյալների վրա հիմնված տեխնոլոգիաների օգտագործման նկատմամբ մտածված մոտեցման անհրաժեշտությունը: Ընկերությունների համար դա կարող է նշանակել ներդրումներ կանխակալության հայտնաբերման գործիքներում և տեխնոլոգիական թիմերում բազմազանության խթանում: Կառավարությունների համար դա կարող է ներառել AI-ի արդար օգտագործումը ապահովելու համար կանոնակարգերի իրականացում:
AI-ի կողմնակալության հետևանքները
AI-ի կողմնակալության ավելի լայն հետևանքները կարող են ներառել.
- Կազմակերպությունները նախաձեռնող են՝ ապահովելու արդարությունն ու խտրականության բացակայությունը, քանի որ նրանք օգտագործում են արհեստական ինտելեկտը՝ արտադրողականությունը և կատարողականը բարելավելու համար:
- Զարգացման թիմերում ունենալ արհեստական ինտելեկտի էթիկայի մասնագետ՝ նախագծի սկզբում էթիկական ռիսկերը հայտնաբերելու և մեղմելու համար:
- AI արտադրանքների նախագծում` հստակ նկատի ունենալով բազմազանության գործոնները, ինչպիսիք են սեռը, ռասան, դասը և մշակույթը:
- Ստանալ ներկայացուցիչներ տարբեր խմբերից, որոնք կօգտագործեն ընկերության AI արտադրանքը փորձարկելու համար այն նախքան թողարկումը:
- Հանրության որոշ անդամներից սահմանափակվում են տարբեր հանրային ծառայություններ:
- Հասարակության որոշ անդամներ չեն կարողանում մուտք գործել կամ որակավորվել աշխատանքի որոշակի հնարավորությունների համար:
- Իրավապահ մարմինները և մասնագետները անարդարացիորեն թիրախավորում են հասարակության որոշ անդամներ, քան մյուսները:
Հարցեր, որոնք պետք է հաշվի առնել
- Դուք լավատես ե՞ք, որ ավտոմատացված որոշումների կայացումը ապագայում արդարացի կլինի:
- Ինչ վերաբերում է AI-ի որոշումների կայացմանը, որը ձեզ ամենաշատ նյարդայնացնում է:
Insight հղումներ
Հետևյալ հանրաճանաչ և ինստիտուցիոնալ հղումները վկայակոչվել են այս պատկերացման համար.