Եվրոպայի արհեստական ինտելեկտի կանոնակարգ. AI-ն մարդասիրական պահելու փորձ
Եվրոպայի արհեստական ինտելեկտի կանոնակարգ. AI-ն մարդասիրական պահելու փորձ
Եվրոպայի արհեստական ինտելեկտի կանոնակարգ. AI-ն մարդասիրական պահելու փորձ
- Հեղինակ:
- Հունիսի 13, 2022
Insight ամփոփում
Եվրոպական հանձնաժողովը (ԵՀ) քայլեր է ձեռնարկում արհեստական ինտելեկտի (AI) էթիկական չափանիշներ սահմանելու ուղղությամբ՝ կենտրոնանալով չարաշահումների կանխարգելման վրա այնպիսի ոլորտներում, ինչպիսիք են վերահսկողությունը և սպառողների տվյալները: Այս քայլը բանավեճ է առաջացրել տեխնոլոգիական արդյունաբերության մեջ և կարող է հանգեցնել ԱՄՆ-ի հետ միասնական մոտեցման՝ նպատակ ունենալով գլոբալ ազդեցության հասնել: Այնուամենայնիվ, կանոնակարգերը կարող են ունենալ նաև անցանկալի հետևանքներ, ինչպիսիք են շուկայական մրցակցության սահմանափակումը և տեխնոլոգիական ոլորտում աշխատանքի հնարավորությունների վրա ազդելը:
Եվրոպական AI կարգավորման համատեքստ
ԵՀ-ն ակտիվորեն կենտրոնացել է տվյալների գաղտնիության և առցանց իրավունքների պաշտպանության քաղաքականության ստեղծման վրա: Վերջերս այս ուշադրությունն ընդլայնվել է՝ ներառելով AI տեխնոլոգիաների էթիկական օգտագործումը: ԵՀ-ն մտահոգված է AI-ի հնարավոր չարաշահմամբ տարբեր ոլորտներում՝ սպառողների տվյալների հավաքագրումից մինչև հսկողություն: Դրանով Հանձնաժողովը նպատակ ունի սահմանել արհեստական ինտելեկտի էթիկայի չափանիշ՝ ոչ միայն ԵՄ-ի ներսում, այլ պոտենցիալ որպես մոդել մնացած աշխարհի համար:
2021 թվականի ապրիլին ԵՀ-ն էական քայլ կատարեց՝ հրապարակելով մի շարք կանոններ, որոնք ուղղված են AI կիրառությունների մոնիտորինգին: Այս կանոնները կոչված են կանխելու AI-ի օգտագործումը հսկողության, կանխակալության կամ ռեպրեսիվ գործողությունների համար կառավարությունների կամ կազմակերպությունների կողմից: Մասնավորապես, կանոնակարգերն արգելում են AI համակարգերը, որոնք կարող են վնասել անհատներին կամ ֆիզիկապես կամ հոգեբանորեն: Օրինակ, արհեստական ինտելեկտի համակարգերը, որոնք թաքնված հաղորդագրությունների միջոցով շահարկում են մարդկանց վարքը, չեն թույլատրվում, ինչպես նաև չեն թույլատրվում այնպիսի համակարգեր, որոնք օգտագործում են մարդկանց ֆիզիկական կամ մտավոր խոցելիությունը:
Դրան զուգահեռ, ԵՀ-ն նաև մշակել է ավելի խիստ քաղաքականություն այն համակարգերի համար, որոնք նա համարում է «բարձր ռիսկային» AI համակարգեր: Սրանք AI հավելվածներ են, որոնք օգտագործվում են այն ոլորտներում, որոնք էական ազդեցություն ունեն հանրային անվտանգության և բարեկեցության վրա, ինչպիսիք են բժշկական սարքերը, անվտանգության սարքավորումները և իրավապահ գործիքները: Քաղաքականությունը նախանշում է աուդիտի ավելի խիստ պահանջներ, հաստատման գործընթաց և շարունակական մոնիտորինգ այս համակարգերի ներդրումից հետո: Այս հովանու ներքո են նաև այնպիսի ոլորտներ, ինչպիսիք են կենսաչափական նույնականացումը, կարևոր ենթակառուցվածքները և կրթությունը: Ընկերությունները, որոնք չեն պահպանում այս կանոնակարգերը, կարող են ենթարկվել ահռելի տուգանքների՝ մինչև 32 միլիոն ԱՄՆ դոլար կամ իրենց համաշխարհային տարեկան եկամտի 6 տոկոսը:
Խանգարող ազդեցություն
Տեխնոլոգիական արդյունաբերությունը մտահոգություն է հայտնել AI-ի կարգավորիչ շրջանակի վերաբերյալ՝ պնդելով, որ նման կանոնները կարող են խոչընդոտել տեխնոլոգիական առաջընթացին: Քննադատները նշում են, որ շրջանակում «բարձր ռիսկային» AI համակարգերի սահմանումը հստակ չէ: Օրինակ, խոշոր տեխնոլոգիական ընկերությունները, որոնք օգտագործում են արհեստական ինտելեկտը սոցիալական մեդիայի ալգորիթմների կամ նպատակային գովազդի համար, չեն դասակարգվում որպես «բարձր ռիսկային», չնայած այն հանգամանքին, որ այս հավելվածները կապված են տարբեր սոցիալական խնդիրների հետ, ինչպիսիք են ապատեղեկատվությունը և բևեռացումը: ԵՀ-ն հակադարձում է դրան՝ հայտարարելով, որ ԵՄ յուրաքանչյուր երկրի ազգային վերահսկիչ գործակալությունները վերջնական խոսքը կասեն այն մասին, թե որն է բարձր ռիսկային հայտը, սակայն այս մոտեցումը կարող է հանգեցնել անդամ պետությունների միջև անհամապատասխանությունների:
Եվրամիությունը (ԵՄ) չի գործում մեկուսացված. այն նպատակ ունի համագործակցել ԱՄՆ-ի հետ՝ AI-ի էթիկայի գլոբալ չափորոշիչ ստեղծելու համար: ԱՄՆ Սենատի Ռազմավարական մրցակցության ակտը, որը հրապարակվել է 2021 թվականի ապրիլին, նաև կոչ է անում միջազգային համագործակցության՝ հակազդելու «թվային ավտորիտարիզմին», որը քողարկված հղում է Չինաստանի կողմից զանգվածային հսկողության համար կենսաչափական տվյալների օգտագործումը: Այս անդրատլանտյան գործընկերությունը կարող է երանգ տալ գլոբալ AI-ի էթիկայի համար, սակայն այն նաև հարցեր է առաջացնում այն մասին, թե ինչպես են նման չափանիշները կիրառվելու ամբողջ աշխարհում: Արդյո՞ք տվյալների գաղտնիության և անհատական իրավունքների վերաբերյալ տարբեր տեսակետներ ունեցող երկրները, ինչպիսիք են Չինաստանը և Ռուսաստանը, կպահպանե՞ն այս ուղեցույցները, թե՞ դա կստեղծի AI էթիկայի մասնատված լանդշաֆտ:
Եթե այս կանոնակարգերը օրենք դառնան 2020-ականների կեսերից մինչև վերջ, դրանք կարող են մեծ ազդեցություն ունենալ ԵՄ-ում տեխնոլոգիական արդյունաբերության և աշխատուժի վրա: ԵՄ-ում գործող ընկերությունները կարող են որոշել կիրառել այս կարգավորիչ փոփոխությունները գլոբալ՝ իրենց ամբողջ գործունեությունը համապատասխանեցնելով նոր չափանիշներին: Այնուամենայնիվ, որոշ կազմակերպություններ կարող են համարել, որ կանոնակարգերը չափազանց ծանրաբեռնված են և նախընտրում են ընդհանրապես դուրս գալ ԵՄ շուկայից: Երկու սցենարներն էլ ազդեցություն կունենան ԵՄ տեխնոլոգիական ոլորտում զբաղվածության վրա: Օրինակ, ընկերությունների զանգվածային հեռանալը կարող է հանգեցնել աշխատատեղերի կորստի, մինչդեռ գլոբալ համապատասխանեցումը ԵՄ չափանիշներին կարող է ԵՄ-ի վրա հիմնված տեխնոլոգիական դերերը դարձնել ավելի մասնագիտացված և պոտենցիալ ավելի արժեքավոր:
Եվրոպայում արհեստական ինտելեկտի կարգավորման ավելացման հետևանքները
ԵՀ-ի ավելի լայն հետևանքները, որոնք ցանկանում են կարգավորել AI-ն, կարող են ներառել.
- ԵՄ-ն և ԱՄՆ-ն ստորագրում են արհեստական ինտելեկտի ընկերությունների համար փոխադարձ հավաստագրման համաձայնագիր, ինչը հանգեցնում է էթիկայի չափանիշների ներդաշնակեցված փաթեթի, որոնք ընկերությունները պետք է հետևեն՝ անկախ իրենց աշխարհագրական դիրքից:
- Աճը արհեստական ինտելեկտի աուդիտի մասնագիտացված ոլորտում, որը խթանվում է մասնավոր ընկերությունների և պետական հատվածների միջև համագործակցության աճով՝ ապահովելու նոր կանոնակարգերի համապատասխանությունը:
- Զարգացող աշխարհի երկրներն ու բիզնեսները հասանելիություն են ստանում թվային ծառայություններին, որոնք հավատարիմ են արևմտյան երկրների կողմից սահմանված AI-ի էթիկական չափանիշներին, ինչը կարող է բարձրացնել այդ ծառայությունների որակն ու անվտանգությունը:
- Բիզնես մոդելների փոփոխություն՝ AI-ի էթիկական պրակտիկաները առաջնահերթություն տալու համար՝ ներգրավելով սպառողներին, ովքեր ավելի ու ավելի են մտահոգված տվյալների գաղտնիության և էթիկական տեխնոլոգիաների օգտագործման վերաբերյալ:
- Կառավարություններն ավելի վստահորեն ընդունում են AI-ն հանրային ծառայություններում, ինչպիսիք են առողջապահությունը և տրանսպորտը, իմանալով, որ այս տեխնոլոգիաները համապատասխանում են խիստ էթիկական չափանիշներին:
- Բարոյական AI-ի վրա կենտրոնացած կրթական ծրագրերում ներդրումների ավելացում՝ ստեղծելով տեխնոլոգների նոր սերունդ, որոնք լավ տիրապետում են ինչպես արհեստական ինտելեկտի կարողություններին, այնպես էլ էթիկական նկատառումներին:
- Փոքր տեխնոլոգիական ստարտափները, որոնք բախվում են մուտքի խոչընդոտների՝ կանոնակարգման համապատասխանության բարձր ծախսերի պատճառով, պոտենցիալ խեղդելով մրցակցությունը և հանգեցնել շուկայի համախմբմանը:
Հարցեր, որոնք պետք է հաշվի առնել
- Դուք հավատու՞մ եք, որ կառավարությունները պետք է կարգավորեն AI տեխնոլոգիաները և ինչպես են դրանք տեղադրվում:
- Ուրիշ ինչպե՞ս կարող է տեխնոլոգիական արդյունաբերության շրջանակներում աճող կարգավորումն ազդել ոլորտի ընկերությունների գործունեության վրա:
Insight հղումներ
Հետևյալ հանրաճանաչ և ինստիտուցիոնալ հղումները վկայակոչվել են այս պատկերացման համար.