Європейське регулювання ШІ: спроба зберегти ШІ гуманним

КРЕДИТ ЗОБРАЖЕННЯ:
Кредит зображення
iStock

Європейське регулювання ШІ: спроба зберегти ШІ гуманним

СТВОРЕНО ДЛЯ МАЙБУТНЬОГО ФУТУРИСТА

Платформа Quantumrun Trends Platform надасть вам інформацію, інструменти та спільноту, щоб досліджувати майбутні тенденції та розвиватися на основі них.

ОСОБЛИВА ПРОПОЗИЦІЯ

5 доларів США НА МІСЯЦЬ

Європейське регулювання ШІ: спроба зберегти ШІ гуманним

Текст підзаголовка
Пропозиція Європейської комісії щодо регулювання штучного інтелекту спрямована на сприяння етичному використанню ШІ.
    • Автор:
    • ім'я автора
      Quantumrun Foresight
    • 13 Червня, 2022.

    Короткий огляд

    Європейська комісія (ЄК) вживає заходів для встановлення етичних стандартів для штучного інтелекту (ШІ), зосереджуючись на запобіганні зловживанням у таких сферах, як спостереження та дані споживачів. Цей крок викликав дебати в індустрії технологій і може призвести до єдиного підходу зі США, спрямованого на глобальний вплив. Проте ці правила також можуть мати непередбачені наслідки, такі як обмеження ринкової конкуренції та вплив на можливості працевлаштування в технологічному секторі.

    Європейський контекст регулювання ШІ

    Європейська комісія активно зосереджується на створенні політики для захисту конфіденційності даних і прав в Інтернеті. Нещодавно ця увага розширилася й охопила етичне використання технологій ШІ. ЄК стурбована потенційним зловживанням штучним інтелектом у різних секторах, від збору даних споживачів до стеження. Таким чином Комісія прагне встановити стандарт етики штучного інтелекту не лише в ЄС, але потенційно як модель для решти світу.

    У квітні 2021 року Європейська комісія зробила значний крок, випустивши набір правил, спрямованих на моніторинг додатків ШІ. Ці правила розроблені, щоб запобігти використанню штучного інтелекту для стеження, збереження упередженості або репресивних дій з боку урядів чи організацій. Зокрема, правила забороняють системи штучного інтелекту, які можуть завдати людям фізичної чи психологічної шкоди. Наприклад, заборонені системи штучного інтелекту, які маніпулюють поведінкою людей за допомогою прихованих повідомлень, а також системи, які використовують фізичну чи психічну вразливість людей.

    Крім того, Європейська комісія також розробила більш сувору політику щодо, на її думку, систем штучного інтелекту «високого ризику». Це додатки штучного інтелекту, які використовуються в секторах, які мають суттєвий вплив на громадську безпеку та добробут, наприклад, медичні пристрої, засоби безпеки та інструменти правоохоронних органів. Політика визначає суворіші вимоги до аудиту, процес затвердження та постійний моніторинг після розгортання цих систем. Такі галузі, як біометрична ідентифікація, критична інфраструктура та освіта, також знаходяться під цією парасолькою. Компанії, які не дотримуються цих правил, можуть зіткнутися зі значними штрафами в розмірі до 32 мільйонів доларів США або 6 відсотків їх світового річного доходу.

    Руйнівний вплив

    Технологічна галузь висловила занепокоєння щодо нормативно-правової бази ЄС для ШІ, стверджуючи, що такі правила можуть перешкоджати технологічному прогресу. Критики зазначають, що визначення систем штучного інтелекту «високого ризику» в структурі не є чітким. Наприклад, великі технологічні компанії, які використовують штучний інтелект для алгоритмів соціальних медіа або цільової реклами, не класифікуються як «високоризикові», незважаючи на те, що ці програми були пов’язані з різними суспільними проблемами, такими як дезінформація та поляризація. ЄК заперечує це, заявляючи, що національні наглядові органи в кожній країні ЄС матимуть останнє слово щодо того, що є заявою з високим ризиком, але такий підхід може призвести до неузгодженості між державами-членами.

    Європейський Союз (ЄС) не діє ізольовано; він націлений на співпрацю зі США для встановлення глобального стандарту етики ШІ. Закон Сенату США про стратегічну конкуренцію, оприлюднений у квітні 2021 року, також закликає до міжнародної співпраці для протидії «цифровому авторитаризму», завуальованому посиланню на такі практики, як використання Китаєм біометрії для масового стеження. Це трансатлантичне партнерство могло б задати тон глобальній етиці штучного інтелекту, але воно також викликає питання про те, як такі стандарти будуть застосовуватися в усьому світі. Чи країни з різними поглядами на конфіденційність даних і особисті права, такі як Китай і Росія, дотримувались би цих вказівок, чи це створило б фрагментований ландшафт етики ШІ?

    Якщо ці норми стануть законом у середині-наприкінці 2020-х років, вони можуть мати різкий вплив на технологічну індустрію та робочу силу в ЄС. Компанії, що працюють в ЄС, можуть застосувати ці нормативні зміни в усьому світі, узгодивши всю свою діяльність з новими стандартами. Проте деякі організації можуть вважати правила надто обтяжливими та вирішити взагалі покинути ринок ЄС. Обидва сценарії матимуть наслідки для зайнятості в технологічному секторі ЄС. Наприклад, масовий вихід компаній може призвести до втрати робочих місць, тоді як глобальне узгодження зі стандартами ЄС може зробити технічні посади в ЄС більш спеціалізованими та потенційно більш цінними.

    Наслідки посилення регулювання ШІ в Європі

    Більш широкі наслідки того, що ЄС все більше хоче регулювати ШІ, можуть включати:

    • ЄС і США формують угоду про взаємну сертифікацію для компаній зі штучним інтелектом, що веде до узгодженого набору етичних стандартів, яких компанії повинні дотримуватися, незалежно від свого географічного розташування.
    • Зростання спеціалізованої галузі аудиту штучного інтелекту, яке стимулюється розширенням співпраці між приватними фірмами та державним сектором для забезпечення дотримання нових правил.
    • Країни та компанії з країн, що розвиваються, отримують доступ до цифрових послуг, які дотримуються етичних стандартів штучного інтелекту, встановлених західними країнами, потенційно підвищуючи якість і безпеку цих послуг.
    • Зміни в бізнес-моделях з метою надання пріоритету етичним практикам штучного інтелекту, залучення споживачів, які все більше стурбовані конфіденційністю даних і етичним використанням технологій.
    • Уряди з більшою впевненістю впроваджують штучний інтелект у державних службах, таких як охорона здоров’я та транспорт, знаючи, що ці технології відповідають суворим етичним стандартам.
    • Збільшення інвестицій в освітні програми, зосереджені на етичному штучному інтелекті, створюючи нове покоління технологів, які добре знають як можливості ШІ, так і етичні міркування.
    • Менші технологічні стартапи стикаються з бар’єрами для виходу на ринок через високу вартість дотримання нормативних вимог, що потенційно пригнічує конкуренцію та призводить до консолідації ринку.

    Питання для розгляду

    • Чи вважаєте ви, що уряди повинні регулювати технології штучного інтелекту та способи їхнього розгортання?
    • Як інакше посилене регулювання в галузі технологій може вплинути на те, як працюють компанії в цьому секторі? 

    Посилання на Insight

    Для цієї інформації використовувалися такі популярні та інституційні посилання: