Регулатива за вештачка интелигенција на Европа: Обид да се одржи ВИ хумана

КРЕДИТ НА СЛИКА:
Слика кредит
iStock

Регулатива за вештачка интелигенција на Европа: Обид да се одржи ВИ хумана

ИЗГРАДЕНА ЗА УТРЕШНИОТ ФУТУРИСТ

Платформата Quantumrun Trends ќе ви даде увид, алатки и заедница за да истражувате и да напредувате од идните трендови.

СПЕЦИЈАЛНА ПОНУДА

5 долари МЕСЕЧНО

Регулатива за вештачка интелигенција на Европа: Обид да се одржи ВИ хумана

Текст за поднаслов
Регулаторниот предлог на Европската комисија за вештачка интелигенција има за цел да ја промовира етичката употреба на вештачката интелигенција.
    • автор:
    • име на авторот
      Quantumrun Foresight
    • Јуни 13, 2022

    Резиме на увид

    Европската комисија (ЕК) презема чекори за да постави етички стандарди за вештачката интелигенција (ВИ), фокусирајќи се на спречување на злоупотреба во области како што се надзорот и податоците за потрошувачите. Овој потег предизвика дебата во технолошката индустрија и може да доведе до унифициран пристап со САД, со цел за глобално влијание. Меѓутоа, регулативите може да имаат и несакани последици, како што се ограничување на пазарната конкуренција и влијание врз можностите за работа во технолошкиот сектор.

    Контекст на европска регулатива за вештачка интелигенција

    ЕК активно се фокусира на креирање политики за заштита на приватноста на податоците и правата на интернет. Неодамна, овој фокус се прошири за да ја вклучи етичката употреба на технологиите за вештачка интелигенција. ЕК е загрижена за потенцијалната злоупотреба на вештачката интелигенција во различни сектори, од собирање податоци за потрошувачите до надзор. Со тоа, Комисијата има за цел да постави стандард за етиката на вештачката интелигенција, не само во рамките на ЕУ, туку потенцијално како модел за остатокот од светот.

    Во април 2021 година, ЕК презеде значаен чекор со објавување на сет правила насочени кон следење на апликациите за вештачка интелигенција. Овие правила се дизајнирани да ја спречат употребата на вештачка интелигенција за надзор, овековечување на пристрасност или репресивни дејствија од страна на владите или организациите. Поточно, регулативите забрануваат системи за вештачка интелигенција кои би можеле да им наштетат на поединци физички или психолошки. На пример, не се дозволени системи за вештачка интелигенција кои манипулираат со однесувањето на луѓето преку скриени пораки, ниту пак системи кои ги искористуваат физичките или менталните ранливости на луѓето.

    Заедно со ова, ЕК разви и поригорозна политика за она што го смета за „високо ризични“ системи за вештачка интелигенција. Ова се апликации за вештачка интелигенција што се користат во сектори кои имаат значително влијание врз јавната безбедност и благосостојба, како што се медицинските уреди, безбедносната опрема и алатките за спроведување на законот. Политиката наведува построги барања за ревизија, процес на одобрување и тековно следење откако ќе се применат овие системи. Индустриите како биометриската идентификација, критичната инфраструктура и образованието се исто така под овој чадор. Компаниите кои нема да ги почитуваат овие прописи може да се соочат со високи казни, до 32 милиони американски долари или 6 отсто од нивниот глобален годишен приход.

    Нарушувачко влијание

    Технолошката индустрија изрази загриженост за регулаторната рамка на ЕК за вештачката интелигенција, тврдејќи дека таквите правила би можеле да го попречат технолошкиот напредок. Критичарите истакнуваат дека дефиницијата за „високоризични“ системи за вештачка интелигенција во рамката не е јасна. На пример, големите технолошки компании кои користат вештачка интелигенција за алгоритми на социјалните медиуми или насочено рекламирање не се класифицирани како „високо ризични“, и покрај фактот што овие апликации се поврзани со различни општествени прашања како дезинформации и поларизација. ЕК се спротивставува на ова со наведување дека националните надзорни агенции во секоја земја на ЕУ ќе го имаат последниот збор за тоа што претставува апликација со висок ризик, но овој пристап може да доведе до недоследности меѓу земјите-членки.

    Европската унија (ЕУ) не дејствува изолирано; има за цел да соработува со САД за да воспостави глобален стандард за етика на вештачката интелигенција. Законот за стратешка конкуренција на американскиот Сенат, објавен во април 2021 година, исто така повикува на меѓународна соработка за да се спротивстави на „дигиталниот авторитаризам“, прикриена референца за практики како што е кинеската употреба на биометрија за масовен надзор. Ова трансатлантско партнерство може да го постави тонот за глобалната етика на вештачката интелигенција, но исто така покренува прашања за тоа како таквите стандарди би се спроведувале ширум светот. Дали земјите со различни гледишта за приватноста на податоците и индивидуалните права, како Кина и Русија, би се придржувале до овие упатства или тоа би создало фрагментиран пејзаж на етиката на вештачката интелигенција?

    Доколку овие регулативи станат закон од средината до крајот на 2020-тите, тие би можеле да имаат брановиден ефект врз технолошката индустрија и работната сила во ЕУ. Компаниите кои работат во ЕУ може да се одлучат да ги применат овие регулаторни промени на глобално ниво, усогласувајќи го целото нивно работење со новите стандарди. Сепак, некои организации може да ги сметаат регулативите премногу оптоварени и да изберат целосно да излезат од пазарот на ЕУ. И двете сценарија ќе имаат импликации за вработување во технолошкиот сектор на ЕУ. На пример, масовното излегување на компаниите може да доведе до губење на работни места, додека глобалното усогласување со стандардите на ЕУ може да ги направи технолошките улоги засновани во ЕУ поспецијализирани и потенцијално повредни.

    Импликации за зголемена регулација на ВИ во Европа

    Пошироките импликации на ЕК што сè повеќе сака да ја регулира вештачката интелигенција може да вклучуваат:

    • ЕУ и САД формираат меѓусебен договор за сертификација за компаниите со вештачка интелигенција, што доведува до хармонизиран сет на етички стандарди што компаниите мора да ги следат, без оглед на нивната географска локација.
    • Раст во специјализираното поле на ревизија на вештачка интелигенција, поттикнат од зголемената соработка помеѓу приватните фирми и јавниот сектор за да се обезбеди усогласеност со новите регулативи.
    • Нациите и бизнисите од светот во развој добиваат пристап до дигитални услуги кои се придржуваат до етичките стандарди за вештачка интелигенција поставени од западните нации, потенцијално зголемувајќи го квалитетот и безбедноста на овие услуги.
    • Промена во деловните модели за да се даде приоритет на етичките практики на вештачка интелигенција, привлекувајќи потрошувачи кои се повеќе се загрижени за приватноста на податоците и етичката употреба на технологијата.
    • Владите ја прифаќаат вештачката интелигенција во јавните услуги како што се здравството и транспортот со поголема доверба, знаејќи дека овие технологии ги исполнуваат ригорозните етички стандарди.
    • Зголемени инвестиции во образовни програми фокусирани на етичка вештачка интелигенција, создавајќи нова генерација технолози кои се добро упатени и во способностите за вештачка интелигенција и во етичките размислувања.
    • Помалите технолошки стартапи се соочуваат со бариери за влез поради високите трошоци за усогласеност со регулативата, потенцијално задушувајќи ја конкуренцијата и доведуваат до консолидација на пазарот.

    Прашања што треба да се разгледаат

    • Дали верувате дека владите треба да ги регулираат технологиите за вештачка интелигенција и како тие се распоредени?
    • Како инаку зголемената регулатива во технолошката индустрија може да влијае на начинот на работа на компаниите во секторот?