Европейско регулиране на изкуствения интелект: Опит да се запази хуманният изкуствен интелект

КРЕДИТ ЗА ИЗОБРАЖЕНИЕ:
Изображение на кредит
iStock

Европейско регулиране на изкуствения интелект: Опит да се запази хуманният изкуствен интелект

СЪЗДАДЕНО ЗА УТРЕШНИЯ ФУТУРИСТ

Платформата Quantumrun Trends ще ви даде прозрения, инструменти и общност, за да изследвате и да процъфтявате от бъдещите тенденции.

СПЕЦИАЛНА ОФЕРТА

$5 НА МЕСЕЦ

Европейско регулиране на изкуствения интелект: Опит да се запази хуманният изкуствен интелект

Подзаглавен текст
Предложението на Европейската комисия за регулиране на изкуствения интелект има за цел да насърчи етичната употреба на ИИ.
    • Автор:
    • име Автор
      Quantumrun Foresight
    • Юни 13, 2022

    Резюме на прозрението

    Европейската комисия (ЕК) предприема крачки за определяне на етични стандарти за изкуствения интелект (AI), като се фокусира върху предотвратяването на злоупотреби в области като наблюдение и потребителски данни. Този ход предизвика дебат в технологичната индустрия и може да доведе до единен подход със САЩ, целящ глобално влияние. Регламентите обаче могат да имат и непредвидени последици, като например ограничаване на пазарната конкуренция и засягане на възможностите за работа в технологичния сектор.

    Европейският регулаторен контекст на ИИ

    ЕК активно се фокусира върху създаването на политики за защита на поверителността на данните и онлайн правата. Наскоро този фокус се разшири, за да включи етичното използване на AI технологиите. ЕК е загрижена за потенциалната злоупотреба с ИИ в различни сектори, от събирането на потребителски данни до наблюдението. По този начин Комисията има за цел да установи стандарт за етиката на ИИ не само в рамките на ЕС, но потенциално като модел за останалия свят.

    През април 2021 г. ЕК направи значителна стъпка, като пусна набор от правила, насочени към мониторинг на приложения с изкуствен интелект. Тези правила са предназначени да предотвратят използването на AI за наблюдение, поддържане на пристрастия или репресивни действия от правителства или организации. По-конкретно, разпоредбите забраняват системи с изкуствен интелект, които могат да навредят физически или психологически на хората. Например системи с изкуствен интелект, които манипулират поведението на хората чрез скрити съобщения, не са разрешени, нито пък системи, които използват физическите или психическите уязвимости на хората.

    Наред с това ЕК разработи и по-строга политика за това, което смята за „високорискови“ системи с изкуствен интелект. Това са AI приложения, използвани в сектори, които имат значително въздействие върху обществената безопасност и благосъстояние, като медицински устройства, оборудване за безопасност и инструменти за правоприлагане. Политиката очертава по-строги изисквания за одит, процес на одобрение и текущ мониторинг след внедряването на тези системи. Индустрии като биометрична идентификация, критична инфраструктура и образование също са под този чадър. Компаниите, които не спазват тези разпоредби, могат да бъдат изправени пред солидни глоби, до 32 милиона щатски долара или 6 процента от глобалните си годишни приходи.

    Разрушително въздействие

    Технологичната индустрия изрази загриженост относно регулаторната рамка на ЕК за ИИ с аргумента, че подобни правила могат да попречат на технологичния прогрес. Критиците посочват, че дефиницията на „високорискови“ AI системи в рамката не е ясна. Например големите технологични компании, които използват AI за алгоритми за социални медии или целева реклама, не са класифицирани като „високорискови“, въпреки факта, че тези приложения са свързани с различни обществени проблеми като дезинформация и поляризация. ЕК противодейства на това, като заявява, че националните надзорни агенции във всяка държава от ЕС ще имат последната дума относно това какво представлява високорисково приложение, но този подход може да доведе до несъответствия в държавите членки.

    Европейският съюз (ЕС) не действа изолирано; има за цел да си сътрудничи със САЩ за установяване на глобален стандарт за етиката на ИИ. Законът за стратегическата конкуренция на Сената на САЩ, публикуван през април 2021 г., също призовава за международно сътрудничество за противодействие на „дигиталния авторитаризъм“, завоалирано позоваване на практики като използването на биометрични данни в Китай за масово наблюдение. Това трансатлантическо партньорство може да зададе тона на глобалната етика на ИИ, но също така повдига въпроси за това как тези стандарти ще бъдат прилагани в световен мащаб. Дали страни с различни възгледи относно поверителността на данните и индивидуалните права, като Китай и Русия, биха се придържали към тези насоки или това би създало фрагментиран пейзаж на етиката на ИИ?

    Ако тези разпоредби станат закон в средата до края на 2020 г., те биха могли да имат вълнообразен ефект върху технологичната индустрия и работната сила в ЕС. Компаниите, работещи в ЕС, могат да изберат да прилагат тези регулаторни промени в световен мащаб, като приведат цялата си дейност в съответствие с новите стандарти. Въпреки това, някои организации може да сметнат регулациите за твърде тежки и да изберат да напуснат пазара на ЕС напълно. И двата сценария ще имат отражение върху заетостта в технологичния сектор на ЕС. Например масовото напускане на компании може да доведе до загуба на работни места, докато глобалното привеждане в съответствие със стандартите на ЕС може да направи базираните в ЕС технологични роли по-специализирани и потенциално по-ценни.

    Последици за засилено регулиране на ИИ в Европа

    По-широките последици от все по-голямото желание на ЕК да регулира ИИ може да включват:

    • ЕС и САЩ сключват споразумение за взаимно сертифициране на компаниите с ИИ, което води до хармонизиран набор от етични стандарти, които компаниите трябва да следват, независимо от географското си местоположение.
    • Растеж в специализираната област на одита на AI, подхранван от засиленото сътрудничество между частни фирми и публичните сектори, за да се гарантира спазването на новите разпоредби.
    • Нациите и фирмите от развиващия се свят получават достъп до цифрови услуги, които се придържат към етичните стандарти за изкуствен интелект, определени от западните нации, което потенциално повишава качеството и безопасността на тези услуги.
    • Промяна в бизнес моделите за приоритизиране на етичните AI практики, привличайки потребители, които са все по-загрижени за поверителността на данните и етичната употреба на технологии.
    • Правителствата приемат AI в обществени услуги като здравеопазване и транспорт с по-голяма увереност, знаейки, че тези технологии отговарят на строги етични стандарти.
    • Повишени инвестиции в образователни програми, фокусирани върху етичния AI, създавайки ново поколение технолози, които са добре запознати както с възможностите на AI, така и с етичните съображения.
    • По-малките технологични стартиращи компании са изправени пред бариери за навлизане поради високите разходи за спазване на регулаторните изисквания, потенциално задушаващи конкуренцията и водещи до пазарна консолидация.

    Въпроси за разглеждане

    • Вярвате ли, че правителствата трябва да регулират AI технологиите и как се внедряват?
    • Как иначе повишеното регулиране в технологичната индустрия може да повлияе на начина, по който работят компаниите в сектора? 

    Препратки към Insight

    Следните популярни и институционални връзки бяха посочени за тази информация: