Եվրոպայի արհեստական ​​ինտելեկտի կանոնակարգ. AI-ն մարդասիրական պահելու փորձ

ՊԱՏԿԵՐԻ ՎԱՐԿ.
Image վարկային
iStock- ը

Եվրոպայի արհեստական ​​ինտելեկտի կանոնակարգ. AI-ն մարդասիրական պահելու փորձ

ԿԱՌՈՒՑՎԵԼ Է ՎԱՂՎԱ ՖՈՒՏՈՒՐԻՍՏԻ ՀԱՄԱՐ

Quantumrun Trends հարթակը ձեզ կտրամադրի պատկերացումներ, գործիքներ և համայնք՝ ապագա միտումները ուսումնասիրելու և զարգացնելու համար:

ՀԱՏՈՒԿ ԱՌԱՋԱՐԿ

$5 ԱՄՍԱԿԱՆ

Եվրոպայի արհեստական ​​ինտելեկտի կանոնակարգ. AI-ն մարդասիրական պահելու փորձ

Ենթավերնագրի տեքստը
Եվրոպական հանձնաժողովի արհեստական ​​ինտելեկտի կարգավորիչ առաջարկը նպատակ ունի խթանել AI-ի էթիկական կիրառումը:
    • Հեղինակ:
    • Հեղինակ անունը
      Quantumrun Հեռատեսություն
    • Հունիսի 13, 2022

    Insight ամփոփում

    Եվրոպական հանձնաժողովը (ԵՀ) քայլեր է ձեռնարկում արհեստական ​​ինտելեկտի (AI) էթիկական չափանիշներ սահմանելու ուղղությամբ՝ կենտրոնանալով չարաշահումների կանխարգելման վրա այնպիսի ոլորտներում, ինչպիսիք են վերահսկողությունը և սպառողների տվյալները: Այս քայլը բանավեճ է առաջացրել տեխնոլոգիական արդյունաբերության մեջ և կարող է հանգեցնել ԱՄՆ-ի հետ միասնական մոտեցման՝ նպատակ ունենալով գլոբալ ազդեցության հասնել: Այնուամենայնիվ, կանոնակարգերը կարող են ունենալ նաև անցանկալի հետևանքներ, ինչպիսիք են շուկայական մրցակցության սահմանափակումը և տեխնոլոգիական ոլորտում աշխատանքի հնարավորությունների վրա ազդելը:

    Եվրոպական AI կարգավորման համատեքստ

    ԵՀ-ն ակտիվորեն կենտրոնացել է տվյալների գաղտնիության և առցանց իրավունքների պաշտպանության քաղաքականության ստեղծման վրա: Վերջերս այս ուշադրությունն ընդլայնվել է՝ ներառելով AI տեխնոլոգիաների էթիկական օգտագործումը: ԵՀ-ն մտահոգված է AI-ի հնարավոր չարաշահմամբ տարբեր ոլորտներում՝ սպառողների տվյալների հավաքագրումից մինչև հսկողություն: Դրանով Հանձնաժողովը նպատակ ունի սահմանել արհեստական ​​ինտելեկտի էթիկայի չափանիշ՝ ոչ միայն ԵՄ-ի ներսում, այլ պոտենցիալ որպես մոդել մնացած աշխարհի համար:

    2021 թվականի ապրիլին ԵՀ-ն էական քայլ կատարեց՝ հրապարակելով մի շարք կանոններ, որոնք ուղղված են AI կիրառությունների մոնիտորինգին: Այս կանոնները կոչված են կանխելու AI-ի օգտագործումը հսկողության, կանխակալության կամ ռեպրեսիվ գործողությունների համար կառավարությունների կամ կազմակերպությունների կողմից: Մասնավորապես, կանոնակարգերն արգելում են AI համակարգերը, որոնք կարող են վնասել անհատներին կամ ֆիզիկապես կամ հոգեբանորեն: Օրինակ, արհեստական ​​ինտելեկտի համակարգերը, որոնք թաքնված հաղորդագրությունների միջոցով շահարկում են մարդկանց վարքը, չեն թույլատրվում, ինչպես նաև չեն թույլատրվում այնպիսի համակարգեր, որոնք օգտագործում են մարդկանց ֆիզիկական կամ մտավոր խոցելիությունը:

    Դրան զուգահեռ, ԵՀ-ն նաև մշակել է ավելի խիստ քաղաքականություն այն համակարգերի համար, որոնք նա համարում է «բարձր ռիսկային» AI համակարգեր: Սրանք AI հավելվածներ են, որոնք օգտագործվում են այն ոլորտներում, որոնք էական ազդեցություն ունեն հանրային անվտանգության և բարեկեցության վրա, ինչպիսիք են բժշկական սարքերը, անվտանգության սարքավորումները և իրավապահ գործիքները: Քաղաքականությունը նախանշում է աուդիտի ավելի խիստ պահանջներ, հաստատման գործընթաց և շարունակական մոնիտորինգ այս համակարգերի ներդրումից հետո: Այս հովանու ներքո են նաև այնպիսի ոլորտներ, ինչպիսիք են կենսաչափական նույնականացումը, կարևոր ենթակառուցվածքները և կրթությունը: Ընկերությունները, որոնք չեն պահպանում այս կանոնակարգերը, կարող են ենթարկվել ահռելի տուգանքների՝ մինչև 32 միլիոն ԱՄՆ դոլար կամ իրենց համաշխարհային տարեկան եկամտի 6 տոկոսը:

    Խանգարող ազդեցություն

    Տեխնոլոգիական արդյունաբերությունը մտահոգություն է հայտնել AI-ի կարգավորիչ շրջանակի վերաբերյալ՝ պնդելով, որ նման կանոնները կարող են խոչընդոտել տեխնոլոգիական առաջընթացին: Քննադատները նշում են, որ շրջանակում «բարձր ռիսկային» AI համակարգերի սահմանումը հստակ չէ: Օրինակ, խոշոր տեխնոլոգիական ընկերությունները, որոնք օգտագործում են արհեստական ​​ինտելեկտը սոցիալական մեդիայի ալգորիթմների կամ նպատակային գովազդի համար, չեն դասակարգվում որպես «բարձր ռիսկային», չնայած այն հանգամանքին, որ այս հավելվածները կապված են տարբեր սոցիալական խնդիրների հետ, ինչպիսիք են ապատեղեկատվությունը և բևեռացումը: ԵՀ-ն հակադարձում է դրան՝ հայտարարելով, որ ԵՄ յուրաքանչյուր երկրի ազգային վերահսկիչ գործակալությունները վերջնական խոսքը կասեն այն մասին, թե որն է բարձր ռիսկային հայտը, սակայն այս մոտեցումը կարող է հանգեցնել անդամ պետությունների միջև անհամապատասխանությունների:

    Եվրամիությունը (ԵՄ) չի գործում մեկուսացված. այն նպատակ ունի համագործակցել ԱՄՆ-ի հետ՝ AI-ի էթիկայի գլոբալ չափորոշիչ ստեղծելու համար: ԱՄՆ Սենատի Ռազմավարական մրցակցության ակտը, որը հրապարակվել է 2021 թվականի ապրիլին, նաև կոչ է անում միջազգային համագործակցության՝ հակազդելու «թվային ավտորիտարիզմին», որը քողարկված հղում է Չինաստանի կողմից զանգվածային հսկողության համար կենսաչափական տվյալների օգտագործումը: Այս անդրատլանտյան գործընկերությունը կարող է երանգ տալ գլոբալ AI-ի էթիկայի համար, սակայն այն նաև հարցեր է առաջացնում այն ​​մասին, թե ինչպես են նման չափանիշները կիրառվելու ամբողջ աշխարհում: Արդյո՞ք տվյալների գաղտնիության և անհատական ​​իրավունքների վերաբերյալ տարբեր տեսակետներ ունեցող երկրները, ինչպիսիք են Չինաստանը և Ռուսաստանը, կպահպանե՞ն այս ուղեցույցները, թե՞ դա կստեղծի AI էթիկայի մասնատված լանդշաֆտ:

    Եթե ​​այս կանոնակարգերը օրենք դառնան 2020-ականների կեսերից մինչև վերջ, դրանք կարող են մեծ ազդեցություն ունենալ ԵՄ-ում տեխնոլոգիական արդյունաբերության և աշխատուժի վրա: ԵՄ-ում գործող ընկերությունները կարող են որոշել կիրառել այս կարգավորիչ փոփոխությունները գլոբալ՝ իրենց ամբողջ գործունեությունը համապատասխանեցնելով նոր չափանիշներին: Այնուամենայնիվ, որոշ կազմակերպություններ կարող են համարել, որ կանոնակարգերը չափազանց ծանրաբեռնված են և նախընտրում են ընդհանրապես դուրս գալ ԵՄ շուկայից: Երկու սցենարներն էլ ազդեցություն կունենան ԵՄ տեխնոլոգիական ոլորտում զբաղվածության վրա: Օրինակ, ընկերությունների զանգվածային հեռանալը կարող է հանգեցնել աշխատատեղերի կորստի, մինչդեռ գլոբալ համապատասխանեցումը ԵՄ չափանիշներին կարող է ԵՄ-ի վրա հիմնված տեխնոլոգիական դերերը դարձնել ավելի մասնագիտացված և պոտենցիալ ավելի արժեքավոր:

    Եվրոպայում արհեստական ​​ինտելեկտի կարգավորման ավելացման հետևանքները

    ԵՀ-ի ավելի լայն հետևանքները, որոնք ցանկանում են կարգավորել AI-ն, կարող են ներառել.

    • ԵՄ-ն և ԱՄՆ-ն ստորագրում են արհեստական ​​ինտելեկտի ընկերությունների համար փոխադարձ հավաստագրման համաձայնագիր, ինչը հանգեցնում է էթիկայի չափանիշների ներդաշնակեցված փաթեթի, որոնք ընկերությունները պետք է հետևեն՝ անկախ իրենց աշխարհագրական դիրքից:
    • Աճը արհեստական ​​ինտելեկտի աուդիտի մասնագիտացված ոլորտում, որը խթանվում է մասնավոր ընկերությունների և պետական ​​հատվածների միջև համագործակցության աճով՝ ապահովելու նոր կանոնակարգերի համապատասխանությունը:
    • Զարգացող աշխարհի երկրներն ու բիզնեսները հասանելիություն են ստանում թվային ծառայություններին, որոնք հավատարիմ են արևմտյան երկրների կողմից սահմանված AI-ի էթիկական չափանիշներին, ինչը կարող է բարձրացնել այդ ծառայությունների որակն ու անվտանգությունը:
    • Բիզնես մոդելների փոփոխություն՝ AI-ի էթիկական պրակտիկաները առաջնահերթություն տալու համար՝ ներգրավելով սպառողներին, ովքեր ավելի ու ավելի են մտահոգված տվյալների գաղտնիության և էթիկական տեխնոլոգիաների օգտագործման վերաբերյալ:
    • Կառավարություններն ավելի վստահորեն ընդունում են AI-ն հանրային ծառայություններում, ինչպիսիք են առողջապահությունը և տրանսպորտը, իմանալով, որ այս տեխնոլոգիաները համապատասխանում են խիստ էթիկական չափանիշներին:
    • Բարոյական AI-ի վրա կենտրոնացած կրթական ծրագրերում ներդրումների ավելացում՝ ստեղծելով տեխնոլոգների նոր սերունդ, որոնք լավ տիրապետում են ինչպես արհեստական ​​ինտելեկտի կարողություններին, այնպես էլ էթիկական նկատառումներին:
    • Փոքր տեխնոլոգիական ստարտափները, որոնք բախվում են մուտքի խոչընդոտների՝ կանոնակարգման համապատասխանության բարձր ծախսերի պատճառով, պոտենցիալ խեղդելով մրցակցությունը և հանգեցնել շուկայի համախմբմանը:

    Հարցեր, որոնք պետք է հաշվի առնել

    • Դուք հավատու՞մ եք, որ կառավարությունները պետք է կարգավորեն AI տեխնոլոգիաները և ինչպես են դրանք տեղադրվում:
    • Ուրիշ ինչպե՞ս կարող է տեխնոլոգիական արդյունաբերության շրջանակներում աճող կարգավորումն ազդել ոլորտի ընկերությունների գործունեության վրա: 

    Insight հղումներ

    Հետևյալ հանրաճանաչ և ինստիտուցիոնալ հղումները վկայակոչվել են այս պատկերացման համար.

    Ռազմավարական և միջազգային հետազոտությունների կենտրոն AI կանոնակարգ. Եվրոպայի վերջին առաջարկը արթնացման կոչ է Միացյալ Նահանգների համար