Еўрапейскае рэгуляванне AI: спроба захаваць AI гуманным

КРЭДЫТ ВЫЯВЫ:
Крэдыт малюнка
Istock

Еўрапейскае рэгуляванне AI: спроба захаваць AI гуманным

СТВОРАНЫ ДЛЯ ЗАЎТРАШНЯГА ФУТУРЫСТА

Платформа Quantumrun Trends Platform дасць вам інфармацыю, інструменты і супольнасць, каб даследаваць будучыя тэндэнцыі і развівацца з іх дапамогай.

СПЕЦЫЯЛЬНАЯ ПРАПАРАТА

5 долараў у месяц

Еўрапейскае рэгуляванне AI: спроба захаваць AI гуманным

Тэкст падзагалоўка
Прапанова Еўрапейскай камісіі аб рэгуляванні штучнага інтэлекту накіравана на прасоўванне этычнага выкарыстання ІІ.
    • аўтар:
    • імя аўтара
      Quantumrun Foresight
    • Чэрвень 13, 2022

    Кароткі агляд

    Еўрапейская камісія (ЕК) прадпрымае крокі па ўстанаўленні этычных стандартаў для штучнага інтэлекту (ШІ), засяродзіўшы ўвагу на прадухіленні злоўжыванняў у такіх галінах, як сачэнне і спажывецкія даныя. Гэты крок выклікаў дэбаты ў тэхналагічнай індустрыі і можа прывесці да адзінага падыходу з ЗША, які імкнецца да глабальнага ўплыву. Аднак правілы таксама могуць мець непрадбачаныя наступствы, такія як абмежаванне канкурэнцыі на рынку і ўплыў на магчымасці працаўладкавання ў тэхналагічным сектары.

    Еўрапейскі кантэкст рэгулявання штучнага інтэлекту

    ЕК актыўна засяроджваецца на стварэнні палітыкі па абароне канфідэнцыяльнасці даных і правоў у Інтэрнэце. Нядаўна гэтая ўвага пашырылася і ўключыла этычнае выкарыстанне тэхналогій штучнага інтэлекту. ЕК занепакоены патэнцыйным злоўжываннем штучным інтэлектам у розных сектарах, ад збору даных спажыўцоў да назірання. Паступаючы такім чынам, Камісія імкнецца ўсталяваць стандарт этыкі штучнага інтэлекту не толькі ў ЕС, але, магчыма, у якасці мадэлі для астатняга свету.

    У красавіку 2021 года ЕК зрабіла значны крок, выпусціўшы набор правілаў, накіраваных на маніторынг прыкладанняў штучнага інтэлекту. Гэтыя правілы прызначаны для прадухілення выкарыстання штучнага інтэлекту для сачэння, захавання прадузятасці або рэпрэсіўных дзеянняў з боку ўрадаў або арганізацый. У прыватнасці, правілы забараняюць сістэмы штучнага інтэлекту, якія могуць нанесці фізічны або псіхалагічны шкоду людзям. Напрыклад, не дапускаюцца сістэмы штучнага інтэлекту, якія маніпулююць паводзінамі людзей праз схаваныя паведамленні, а таксама сістэмы, якія выкарыстоўваюць фізічныя або псіхічныя ўразлівасці людзей.

    Разам з гэтым ЕК таксама распрацавала больш строгую палітыку ў дачыненні да сістэм штучнага інтэлекту, якія яна лічыць «высокай рызыкай». Гэта прыкладанні штучнага інтэлекту, якія выкарыстоўваюцца ў сектарах, якія аказваюць істотны ўплыў на бяспеку і дабрабыт насельніцтва, такіх як медыцынскія прылады, ахоўнае абсталяванне і інструменты праваахоўных органаў. Палітыка вызначае больш строгія патрабаванні да аўдыту, працэс зацвярджэння і пастаянны маніторынг пасля разгортвання гэтых сістэм. Такія галіны, як біяметрычная ідэнтыфікацыя, крытычная інфраструктура і адукацыя, таксама знаходзяцца пад гэтым парасонам. Кампаніі, якія не выконваюць гэтыя правілы, могуць сутыкнуцца з вялікімі штрафамі ў памеры да 32 мільёнаў долараў ЗША або 6 працэнтаў іх сусветнага гадавога даходу.

    Разбуральнае ўздзеянне

    Тэхналагічная індустрыя выказала заклапочанасць наконт нарматыўнай базы ЕК для штучнага інтэлекту, сцвярджаючы, што такія правілы могуць перашкодзіць тэхналагічнаму прагрэсу. Крытыкі адзначаюць, што вызначэнне сістэм штучнага інтэлекту "высокай рызыкі" ў рамках не з'яўляецца адназначным. Напрыклад, буйныя тэхналагічныя кампаніі, якія выкарыстоўваюць штучны інтэлект для алгарытмаў сацыяльных сетак або мэтавай рэкламы, не адносяцца да катэгорыі "высокай рызыкі", нягледзячы на ​​тое, што гэтыя праграмы звязаны з рознымі грамадскімі праблемамі, такімі як дэзінфармацыя і палярызацыя. ЕК супрацьстаіць гэтаму, заяўляючы, што нацыянальныя наглядныя агенцтвы ў кожнай краіне ЕС будуць мець апошняе слова адносна таго, што ўяўляе сабой заяўку з высокай рызыкай, але такі падыход можа прывесці да неадпаведнасці паміж дзяржавамі-членамі.

    Еўрапейскі саюз (ЕС) не дзейнічае ізалявана; яна накіравана на супрацоўніцтва з ЗША для стварэння глабальнага стандарту этыкі штучнага інтэлекту. Закон Сената ЗША аб стратэгічнай канкурэнцыі, апублікаваны ў красавіку 2021 года, таксама заклікае да міжнароднага супрацоўніцтва для барацьбы з «лічбавым аўтарытарызму», завуаляванай спасылкай на такія практыкі, як выкарыстанне Кітаем біяметрыі для масавага сачэння. Гэта трансатлантычнае партнёрства можа задаць тон глабальнай этыцы штучнага інтэлекту, але яно таксама выклікае пытанні аб тым, як такія стандарты будуць выконвацца ва ўсім свеце. Ці будуць краіны з рознымі поглядамі на канфідэнцыяльнасць даных і правы асобы, такія як Кітай і Расія, прытрымлівацца гэтых рэкамендацый, ці гэта створыць фрагментаваны ландшафт этыкі штучнага інтэлекту?

    Калі гэтыя нормы стануць законам у сярэдзіне-канцы 2020-х гадоў, яны могуць аказаць хвалюючы ўплыў на тэхналагічную галіну і працоўную сілу ў ЕС. Кампаніі, якія працуюць у ЕС, могуць прымяніць гэтыя нарматыўныя змены ва ўсім свеце, прыводзячы ўсю сваю дзейнасць у адпаведнасць з новымі стандартамі. Тым не менш, некаторыя арганізацыі могуць палічыць правілы занадта абцяжарваючымі і вырашыць наогул пакінуць рынак ЕС. Абодва сцэнары будуць мець наступствы для занятасці ў тэхналагічным сектары ЕС. Напрыклад, масавы выхад кампаній можа прывесці да страты працоўных месцаў, у той час як глабальнае ўзгадненне са стандартамі ЕС можа зрабіць тэхнічныя ролі ў ЕС больш спецыялізаванымі і патэнцыйна больш каштоўнымі.

    Наступствы для ўзмацнення рэгулявання штучнага інтэлекту ў Еўропе

    Больш шырокія наступствы таго, што ЕК усё больш хоча рэгуляваць ІІ, могуць уключаць:

    • ЕС і ЗША заключаюць пагадненне аб узаемнай сертыфікацыі для кампаній, якія займаюцца штучным інтэлектам, што вядзе да ўзгодненага набору этычных стандартаў, якім павінны прытрымлівацца кампаніі, незалежна ад іх геаграфічнага месцазнаходжання.
    • Рост у спецыялізаванай галіне аўдыту штучнага інтэлекту, які спрыяе пашырэнню супрацоўніцтва паміж прыватнымі фірмамі і дзяржаўнымі сектарамі для забеспячэння адпаведнасці новым правілам.
    • Краіны і прадпрыемствы з краін, якія развіваюцца, атрымліваюць доступ да лічбавых сэрвісаў, якія прытрымліваюцца этычных стандартаў штучнага інтэлекту, устаноўленых заходнімі краінамі, што можа павысіць якасць і бяспеку гэтых сэрвісаў.
    • Змена бізнес-мадэляў з мэтай аддачы прыярытэту этычным метадам штучнага інтэлекту, прыцягваючы спажыўцоў, якія ўсё больш клапоцяцца аб прыватнасці даных і этычным выкарыстанні тэхналогій.
    • Урады з большай упэўненасцю ўкараняюць штучны інтэлект у такіх дзяржаўных службах, як ахова здароўя і транспарт, ведаючы, што гэтыя тэхналогіі адпавядаюць строгім этычным нормам.
    • Павелічэнне інвестыцый у адукацыйныя праграмы, арыентаваныя на этычны ІІ, ствараючы новае пакаленне тэхнолагаў, якія добра разбіраюцца як у магчымасцях ІІ, так і ў этычных меркаваннях.
    • Меншыя тэхналагічныя стартапы сутыкаюцца з бар'ерамі для выхаду на рынак з-за высокіх выдаткаў на выкананне нарматыўных патрабаванняў, што можа стрымліваць канкурэнцыю і прыводзіць да кансалідацыі рынку.

    Пытанні для разгляду

    • Ці лічыце вы, што ўрады павінны рэгуляваць тэхналогіі штучнага інтэлекту і спосабы іх разгортвання?
    • Як інакш узмацненне рэгулявання ў тэхналагічнай індустрыі можа паўплываць на тое, як працуюць кампаніі ў гэтым сектары? 

    Спасылкі Insight

    Наступныя папулярныя і інстытуцыйныя спасылкі былі выкарыстаны для гэтай інфармацыі: