Регулирование ИИ в Европе: попытка сохранить гуманность ИИ

ИЗОБРАЖЕНИЕ КРЕДИТ:
Кредит изображения
Istock

Регулирование ИИ в Европе: попытка сохранить гуманность ИИ

СОЗДАНО ДЛЯ БУДУЩИХ ФУТУРИСТОВ

Платформа Quantumrun Trends предоставит вам информацию, инструменты и сообщество для изучения будущих тенденций и достижения успеха.

СПЕЦИАЛЬНОЕ ПРЕДЛОЖЕНИЕ

$ 5 В МЕСЯЦ

Регулирование ИИ в Европе: попытка сохранить гуманность ИИ

Текст подзаголовка
Предложение Европейской комиссии по регулированию искусственного интеллекта направлено на продвижение этичного использования ИИ.
    • Автор:
    • Имя автора
      Квантумран Форсайт
    • 13 июня 2022

    Сводка статистики

    Европейская комиссия (ЕК) предпринимает шаги по установлению этических стандартов для искусственного интеллекта (ИИ), уделяя особое внимание предотвращению злоупотреблений в таких областях, как наблюдение и потребительские данные. Этот шаг вызвал дебаты в технологической отрасли и может привести к единому подходу с США, стремящемуся к глобальному влиянию. Однако эти правила могут также иметь непредвиденные последствия, такие как ограничение рыночной конкуренции и влияние на возможности трудоустройства в технологическом секторе.

    Европейский контекст регулирования ИИ

    ЕК активно занимается разработкой политики по защите конфиденциальности данных и онлайн-прав. Недавно этот фокус расширился и стал включать этическое использование технологий искусственного интеллекта. ЕК обеспокоена потенциальным неправомерным использованием ИИ в различных секторах, от сбора данных о потребителях до наблюдения. Поступая таким образом, Комиссия стремится установить стандарт этики ИИ не только внутри ЕС, но и потенциально стать моделью для остального мира.

    В апреле 2021 года ЕС сделала важный шаг, выпустив свод правил, направленных на мониторинг приложений ИИ. Эти правила призваны предотвратить использование ИИ для слежки, сохранения предвзятости или репрессивных действий со стороны правительств или организаций. В частности, правила запрещают системы искусственного интеллекта, которые могут нанести физический или психологический вред людям. Например, запрещены системы искусственного интеллекта, которые манипулируют поведением людей посредством скрытых сообщений, а также системы, эксплуатирующие физические или психические уязвимости людей.

    Наряду с этим ЕС также разработал более строгую политику в отношении систем искусственного интеллекта, которые она считает «высокорисковыми». Это приложения искусственного интеллекта, используемые в секторах, которые оказывают существенное влияние на общественную безопасность и благополучие, таких как медицинское оборудование, оборудование для обеспечения безопасности и инструменты правоохранительных органов. Политика определяет более строгие требования к аудиту, процесс утверждения и постоянный мониторинг после развертывания этих систем. Такие отрасли, как биометрическая идентификация, критически важная инфраструктура и образование, также находятся под этой защитой. Компании, которые не соблюдают эти правила, могут быть оштрафованы на крупные штрафы в размере до 32 миллионов долларов США, или 6 процентов их глобального годового дохода.

    Разрушительное воздействие

    Технологическая отрасль выразила обеспокоенность по поводу нормативной базы ЕС для ИИ, утверждая, что такие правила могут препятствовать технологическому прогрессу. Критики отмечают, что определение систем ИИ «высокого риска» в этой системе не является четким. Например, крупные технологические компании, которые используют ИИ для алгоритмов социальных сетей или таргетированной рекламы, не относятся к категории «высокого риска», несмотря на то, что эти приложения связаны с различными социальными проблемами, такими как дезинформация и поляризация. ЕК возражает против этого, заявляя, что последнее слово в вопросе о том, что представляет собой заявка с высоким уровнем риска, будет за национальными надзорными органами в каждой стране ЕС, но такой подход может привести к несогласованности между государствами-членами.

    Европейский Союз (ЕС) не действует изолированно; он стремится сотрудничать с США для установления глобального стандарта этики ИИ. Закон Сената США о стратегической конкуренции, опубликованный в апреле 2021 года, также призывает к международному сотрудничеству в борьбе с «цифровым авторитаризмом», что является завуалированной ссылкой на такие практики, как использование Китаем биометрических данных для массовой слежки. Это трансатлантическое партнерство могло бы задать тон глобальной этике ИИ, но оно также поднимает вопросы о том, как такие стандарты будут применяться во всем мире. Будут ли страны с разными взглядами на конфиденциальность данных и права личности, такие как Китай и Россия, придерживаться этих принципов, или это создаст фрагментированную среду этики ИИ?

    Если эти правила станут законом в середине-конце 2020-х годов, они могут оказать волновое воздействие на технологическую отрасль и рабочую силу в ЕС. Компании, работающие в ЕС, могут принять решение применить эти нормативные изменения по всему миру, приведя всю свою деятельность в соответствие с новыми стандартами. Однако некоторые организации могут счесть эти правила слишком обременительными и принять решение вообще покинуть рынок ЕС. Оба сценария будут иметь последствия для занятости в технологическом секторе ЕС. Например, массовый выход компаний может привести к потере рабочих мест, в то время как глобальное соответствие стандартам ЕС может сделать технологические должности в ЕС более специализированными и потенциально более ценными.

    Последствия усиления регулирования ИИ в Европе

    Более широкие последствия стремления ЕС регулировать ИИ могут включать в себя:

    • ЕС и США заключают соглашение о взаимной сертификации компаний, занимающихся искусственным интеллектом, что приводит к созданию гармонизированного набора этических стандартов, которым должны следовать компании независимо от их географического местоположения.
    • Рост специализированной области аудита искусственного интеллекта, вызванный расширением сотрудничества между частными фирмами и государственным сектором для обеспечения соблюдения новых правил.
    • Страны и предприятия из развивающегося мира получают доступ к цифровым услугам, которые соответствуют этическим стандартам искусственного интеллекта, установленным западными странами, что потенциально повышает качество и безопасность этих услуг.
    • Изменение бизнес-моделей в сторону приоритета этических методов искусственного интеллекта, что привлекает потребителей, которые все больше обеспокоены конфиденциальностью данных и этичным использованием технологий.
    • Правительства с большей уверенностью внедряют ИИ в государственных службах, таких как здравоохранение и транспорт, зная, что эти технологии соответствуют строгим этическим стандартам.
    • Увеличение инвестиций в образовательные программы, ориентированные на этический ИИ, что создает новое поколение технологов, хорошо разбирающихся как в возможностях ИИ, так и в этических соображениях.
    • Небольшие технологические стартапы сталкиваются с барьерами входа из-за высоких затрат на соблюдение нормативных требований, что потенциально подавляет конкуренцию и приводит к консолидации рынка.

    Вопросы для рассмотрения

    • Считаете ли вы, что правительства должны регулировать технологии ИИ и то, как они используются?
    • Как еще усиление регулирования в технологической отрасли может повлиять на то, как работают компании в этом секторе? 

    Ссылки на статистику

    Для этого понимания использовались следующие популярные и институциональные ссылки:

    Центр стратегических и международных исследований Регламент ИИ: последнее предложение Европы — тревожный звонок для США