Franken-Algorithms: Алгоритми, які стали шахраями

КРЕДИТ ЗОБРАЖЕННЯ:
Кредит зображення
iStock

Franken-Algorithms: Алгоритми, які стали шахраями

Franken-Algorithms: Алгоритми, які стали шахраями

Текст підзаголовка
З розвитком штучного інтелекту алгоритми розвиваються швидше, ніж очікували люди.
    • Автор:
    • ім'я автора
      Quantumrun Foresight
    • Квітень 12, 2023

    Оскільки алгоритми машинного навчання (ML) стають більш досконалими, вони здатні навчатися та адаптуватися до шаблонів у великих наборах даних самостійно. Цей процес, відомий як «автономне навчання», може призвести до створення алгоритмом власного коду або правил для прийняття рішень. Проблема полягає в тому, що код, створений алгоритмом, може бути складним або неможливим для розуміння людьми, що ускладнює виявлення упереджень. 

    Контекст алгоритмів Франкена

    Алгоритми Франкена стосуються алгоритмів (правил, яких дотримуються комп’ютери під час обробки даних і відповіді на команди), які стали настільки складними та переплетеними, що люди більше не можуть їх розшифрувати. Цей термін є нахилом до наукової фантастики Мері Шеллі про «монстра», створеного божевільним ученим доктором Франкенштейном. Незважаючи на те, що алгоритми та коди є будівельними блоками великих технологій і дозволили Facebook і Google стати впливовими компаніями, якими вони є зараз, про технологію ще багато чого не знають люди. 

    Коли програмісти створюють коди та запускають їх через програмне забезпечення, ML дозволяє комп’ютерам розуміти та передбачати шаблони. У той час як велика техніка стверджує, що алгоритми є об’єктивними, оскільки людські емоції та непередбачуваність не впливають на них, ці алгоритми можуть розвиватися та писати власні правила, що призводить до катастрофічних результатів. Код, створений цими алгоритмами, часто є складним і непрозорим, що ускладнює для дослідників і практиків інтерпретацію рішень алгоритму або виявлення будь-яких упереджень, які можуть бути присутніми в процесі прийняття рішень алгоритмом. Ця перешкода може створити серйозні труднощі для компаній, які покладаються на ці алгоритми для прийняття рішень, оскільки вони можуть бути не в змозі зрозуміти або пояснити причини цих рішень.

    Руйнівний вплив

    Коли Franken-Algorithms виходять із ладу, це може бути питанням життя чи смерті. Прикладом стала аварія в 2018 році, коли в Арізоні безпілотний автомобіль збив і вбив жінку, яка їхала на велосипеді. Алгоритми автомобіля не змогли правильно ідентифікувати її як людину. Експерти роздиралися щодо першопричини аварії — чи була машина неправильно запрограмована, чи алгоритм став надто складним для власного блага? Однак програмісти можуть погодитися з тим, що для компаній, що займаються програмним забезпеченням, потрібна система нагляду — кодекс етики. 

    Однак цей етичний кодекс викликав певну відмову з боку великих технологій, оскільки вони займаються продажем даних і алгоритмів і не можуть дозволити собі, щоб їх регулювали чи вимагали бути прозорими. Крім того, нещодавня подія, яка викликала занепокоєння у великих технічних працівників, полягає в тому, що все більше використання алгоритмів у збройних силах, як-от партнерство Google із Міністерством оборони США для включення алгоритмів у військову техніку, як-от автономні дрони. Ця програма призвела до того, що деякі співробітники звільнилися, а експерти висловили занепокоєння, що алгоритми все ще надто непередбачувані, щоб використовувати їх як машини для вбивства. 

    Інше занепокоєння полягає в тому, що алгоритми Франкена можуть зберегти і навіть посилити упередження через набори даних, на яких вони навчаються. Цей процес може призвести до різних суспільних проблем, включаючи дискримінацію, нерівність і неправомірні арешти. Через ці підвищені ризики багато технологічних компаній починають публікувати свої етичні рекомендації щодо ШІ, щоб бути прозорими щодо того, як вони розробляють, використовують і контролюють свої алгоритми.

    Більш широкі наслідки для алгоритмів Франкена

    Потенційні наслідки для алгоритмів Франкена можуть включати:

    • Розвиток автономних систем, які можуть приймати рішення та виконувати дії без нагляду з боку людини, що викликає занепокоєння щодо підзвітності та безпеки. Однак такі алгоритми можуть зменшити витрати на розробку програмного забезпечення та робототехніки, які можуть автоматизувати людську працю в більшості галузей. 
    • Більше уваги до того, як алгоритми можуть автоматизувати військові технології та підтримувати автономну зброю та транспортні засоби.
    • Посилення тиску на уряди та галузевих лідерів щодо впровадження кодексу етики та правил алгоритму.
    • Алгоритми Франкена непропорційно впливають на певні демографічні групи, як-от спільноти з низьким рівнем доходу чи меншини.
    • Алгоритми Франкена можуть увічнити та посилити дискримінацію та упередженість у прийнятті рішень, таких як рішення щодо найму та позичання.
    • Ці алгоритми використовуються кіберзлочинцями для моніторингу та використання слабких місць у системах, зокрема у фінансових установах.
    • Політичні актори використовують фальшиві алгоритми для автоматизації маркетингових кампаній за допомогою генеративних систем штучного інтелекту таким чином, щоб впливати на громадську думку та впливати на вибори.

    Питання для розгляду

    • Як, на вашу думку, будуть розвиватися алгоритми в майбутньому?
    • Що можуть зробити уряди та компанії, щоб контролювати алгоритми Франкена?

    Посилання на Insight

    Для цієї інформації використовувалися такі популярні та інституційні посилання: