Европска регулација вештачке интелигенције: покушај да се вештачка интелигенција задржи хуманом

КРЕДИТ ЗА СЛИКУ:
Слика кредит
иСтоцк

Европска регулација вештачке интелигенције: покушај да се вештачка интелигенција задржи хуманом

ГРАЂЕН ЗА СУТРАШЊЕ ФУТУРИСТУ

Куантумрун Трендс Платформа ће вам дати увиде, алате и заједницу да истражујете и напредујете из будућих трендова.

ПОСЕБНА ПОНУДА

5 USD MESEČNO

Европска регулација вештачке интелигенције: покушај да се вештачка интелигенција задржи хуманом

Текст поднаслова
Регулаторни предлог Европске комисије за вештачку интелигенцију има за циљ да промовише етичку употребу вештачке интелигенције.
    • Аутор:
    • ime аутора
      Куантумрун Форесигхт
    • Јун 13, 2022

    Сажетак увида

    Европска комисија (ЕК) предузима кораке ка постављању етичких стандарда за вештачку интелигенцију (АИ), фокусирајући се на спречавање злоупотребе у областима као што су надзор и подаци о потрошачима. Овај потез изазвао је дебату у технолошкој индустрији и могао би довести до јединственог приступа са САД, са циљем глобалног утицаја. Међутим, прописи могу имати и нежељене последице, као што су ограничавање тржишне конкуренције и утицај на могућности запошљавања у технолошком сектору.

    Европски контекст регулације вештачке интелигенције

    ЕК се активно фокусирала на креирање политика за заштиту приватности података и права на мрежи. Недавно се овај фокус проширио на етичку употребу АИ технологија. ЕК је забринута због потенцијалне злоупотребе АИ у различитим секторима, од прикупљања података о потрошачима до надзора. Чинећи то, Комисија има за циљ да постави стандард за етику вештачке интелигенције, не само унутар ЕУ, већ потенцијално као модел за остатак света.

    У априлу 2021. ЕК је направила значајан корак објављивањем скупа правила за праћење апликација АИ. Ова правила су дизајнирана да спрече употребу вештачке интелигенције за надзор, одржавање пристрасности или репресивне акције влада или организација. Конкретно, прописи забрањују системе вештачке интелигенције који би физички или психички могли да нашкоде појединцима. На пример, системи вештачке интелигенције који манипулишу понашањем људи кроз скривене поруке нису дозвољени, нити системи који искоришћавају физичку или менталну рањивост људи.

    Поред тога, ЕК је такође развила ригорознију политику за оно што сматра „високоризичним“ системима вештачке интелигенције. Ово су АИ апликације које се користе у секторима који имају значајан утицај на јавну безбедност и добробит, као што су медицински уређаји, безбедносна опрема и алати за спровођење закона. Политика наводи строжије захтеве ревизије, процес одобравања и континуирано праћење након што се ови системи примене. Индустрије попут биометријске идентификације, критичне инфраструктуре и образовања такође су под овим кишобраном. Компаније које се не придржавају ових прописа могу се суочити са огромним казнама, до 32 милиона долара или 6 процената њиховог глобалног годишњег прихода.

    Ометајући утицај

    Технолошка индустрија је изразила забринутост због регулаторног оквира ЕК за АИ, тврдећи да би таква правила могла да ометају технолошки напредак. Критичари истичу да дефиниција „високог ризика“ АИ система у оквиру није јасна. На пример, велике технолошке компаније које користе вештачку интелигенцију за алгоритме друштвених медија или циљано оглашавање нису класификоване као „високо ризичне“, упркос чињеници да су ове апликације повезане са различитим друштвеним проблемима као што су дезинформације и поларизација. ЕК се томе супротставља наводећи да ће националне надзорне агенције у свакој земљи ЕУ имати коначну реч о томе шта представља високо ризичну апликацију, али овај приступ може довести до недоследности међу државама чланицама.

    Европска унија (ЕУ) не делује изоловано; има за циљ сарадњу са САД на успостављању глобалног стандарда за етику вештачке интелигенције. Закон о стратешкој конкуренцији америчког Сената, објављен у априлу 2021, такође позива на међународну сарадњу у борби против „дигиталног ауторитаризма“, прикривеног позивања на праксе попут кинеске употребе биометрије за масовни надзор. Ово трансатлантско партнерство могло би да постави тон глобалној етици вештачке интелигенције, али такође поставља питања о томе како ће се такви стандарди спроводити широм света. Да ли би се земље са различитим погледима на приватност података и индивидуална права, попут Кине и Русије, придржавале ових смерница или би то створило фрагментиран пејзаж етике вештачке интелигенције?

    Ако ови прописи постану закон средином и крајем 2020-их, могли би да имају таласан ефекат на технолошку индустрију и радну снагу у ЕУ. Компаније које послују у ЕУ могу се одлучити за примену ових регулаторних промена на глобалном нивоу, усклађујући своје целокупно пословање са новим стандардима. Међутим, неке организације могу сматрати да су прописи превише оптерећујући и одлуче да у потпуности напусте тржиште ЕУ. Оба сценарија би имала импликације на запошљавање у технолошком сектору ЕУ. На пример, масовни одлазак компанија могао би да доведе до губитка радних места, док би глобално усклађивање са стандардима ЕУ могло учинити технолошке улоге базиране у ЕУ специјализованијима и потенцијално вреднијима.

    Импликације за повећану регулацију АИ у Европи

    Шире импликације ЕК која све више жели да регулише АИ могу укључивати:

    • ЕУ и САД формирају споразум о међусобној сертификацији за компаније са вештачком интелигенцијом, што доводи до хармонизованог скупа етичких стандарда које компаније морају да поштују, без обзира на њихову географску локацију.
    • Раст у специјализованој области ревизије АИ, подстакнут повећаном сарадњом између приватних фирми и јавног сектора како би се осигурала усклађеност са новим прописима.
    • Земље и предузећа из света у развоју добијају приступ дигиталним услугама које су у складу са етичким стандардима вештачке интелигенције које су поставиле западне земље, потенцијално подижући квалитет и безбедност ових услуга.
    • Промена у пословним моделима да се дају приоритет етичким праксама вештачке интелигенције, привлачећи потрошаче који су све више забринути за приватност података и етичку употребу технологије.
    • Владе усвајају вештачку интелигенцију у јавним услугама као што су здравство и транспорт са већим самопоуздањем, знајући да ове технологије испуњавају ригорозне етичке стандарде.
    • Повећано улагање у образовне програме фокусиране на етичку вештачку интелигенцију, стварајући нову генерацију технолога који су добро упућени у могућности вештачке интелигенције и етичка разматрања.
    • Мањи технолошки стартупи суочавају се са препрекама за улазак због високих трошкова усклађености са прописима, што потенцијално гуши конкуренцију и доводи до консолидације тржишта.

    Питања која треба размотрити

    • Да ли верујете да владе треба да регулишу АИ технологије и како се оне примењују?
    • Како би иначе појачана регулатива унутар технолошке индустрије могла утицати на начин на који компаније у сектору раде? 

    Референце за увид

    Следеће популарне и институционалне везе су референциране за овај увид: