Вирівнювання AI: відповідність цілям штучного інтелекту відповідає людським цінностям

КРЕДИТ ЗОБРАЖЕННЯ:
Кредит зображення
iStock

Вирівнювання AI: відповідність цілям штучного інтелекту відповідає людським цінностям

Вирівнювання AI: відповідність цілям штучного інтелекту відповідає людським цінностям

Текст підзаголовка
Деякі дослідники вважають, що слід вжити заходів, щоб штучний інтелект не завдавав шкоди суспільству.
    • Автор:
    • ім'я автора
      Quantumrun Foresight
    • Січень 25, 2023

    Вирівнювання штучного інтелекту (ШІ) відбувається, коли цілі системи ШІ відповідають людським цінностям. Такі компанії, як OpenAI, DeepMind і Anthropic, мають команди дослідників, єдиним завданням яких є вивчення огорож для різних сценаріїв, за яких це може статися.

    Контекст вирівнювання ШІ

    Згідно з дослідженням Корнельського університету 2021 року, кілька досліджень показали, що інструменти або моделі, створені за допомогою алгоритмів, відображають упередженість, отриману з даних, на яких їх навчали. Наприклад, у обробці природної мови (NLP) вибрані моделі NLP, навчені на обмежених наборах даних, були задокументовані, роблячи прогнози на основі шкідливих гендерних стереотипів щодо жінок. Подібним чином інші дослідження показали, що алгоритми, навчені на підробленому наборі даних, призвели до расистсько упереджених рекомендацій, особливо в поліції.

    Є багато прикладів, коли системи машинного навчання гірше справлялися з меншинами або групами, які страждають від багатьох недоліків. Зокрема, автоматизований аналіз обличчя та медична діагностика зазвичай не дуже добре працюють для жінок і кольорових людей. Коли критично важливі системи, які повинні базуватися на фактах і логіці, а не на емоціях, використовуються в таких контекстах, як розподіл сфери охорони здоров’я чи освіти, вони можуть завдати більше шкоди, ускладнюючи визначення міркувань, що стоять за цими рекомендаціями.

    У результаті технологічні фірми створюють команди з адаптації штучного інтелекту, щоб зосередитися на тому, щоб алгоритми були чесними та гуманними. Дослідження мають важливе значення для розуміння напрямку передових систем штучного інтелекту, а також проблем, з якими ми можемо зіткнутися в міру зростання можливостей штучного інтелекту.

    Руйнівний вплив

    За словами Яна Лейке, керівника відділу адаптації штучного інтелекту в OpenAI (2021), враховуючи, що системи штучного інтелекту стали спроможними лише в 2010-х роках, зрозуміло, що більшість досліджень адаптації штучного інтелекту були важкими для теорії. Коли надзвичайно потужні системи штучного інтелекту вирівнюються, одна з проблем, з якою стикаються люди, полягає в тому, що ці машини можуть створювати рішення, які є надто складними для перегляду та оцінки, чи мають вони етичний сенс.

    Лейке розробив стратегію рекурсивного моделювання винагороди (RRM), щоб вирішити цю проблему. За допомогою RRM кілька «допоміжних» ШІ навчаються, щоб допомогти людині оцінити, наскільки добре працює більш складний ШІ. Він оптимістично дивиться на можливість створення чогось, що він називає «вирівнянням MVP». З точки зору стартапу, MVP (або мінімально життєздатний продукт) — це найпростіший можливий продукт, який компанія може створити для перевірки ідеї. Є надія, що колись штучний інтелект відповідатиме людським можливостям у дослідженні ШІ та його узгодженні з цінностями, а також буде функціональним.

    Хоча збільшення інтересу до узгодження ШІ є чистим позитивним моментом, багато аналітиків у цій галузі вважають, що більша частина «етичної» роботи у провідних лабораторіях ШІ — це лише зв’язки з громадськістю, спрямовані на те, щоб технологічні компанії виглядали добре та уникали негативної реклами. Ці люди не очікують, що практики етичної розробки найближчим часом стануть пріоритетом для цих компаній.

    Ці спостереження підкреслюють важливість міждисциплінарних підходів для вирівнювання цінностей, оскільки це відносно нова сфера моральних і технічних досліджень. Різні галузі знань мають бути частиною інклюзивного порядку денного досліджень. Ця ініціатива також вказує на те, що технологам і політикам необхідно пам’ятати про свій соціальний контекст і зацікавлених сторін, навіть коли системи ШІ стають все більш досконалими.

    Наслідки вирівнювання ШІ

    Більш широкі наслідки вирівнювання ШІ можуть включати: 

    • Лабораторії штучного інтелекту наймають різноманітні комісії з питань етики для нагляду за проектами та дотримання етичних рекомендацій ШІ. 
    • Уряди створюють закони, які вимагають від компаній представити свою відповідальну структуру ШІ та те, як вони планують подальший розвиток своїх проектів ШІ.
    • Посилення суперечок щодо використання алгоритмів у вербуванні, громадському нагляді та правоохоронній діяльності.
    • Дослідників звільняють із великих лабораторій ШІ через конфлікт інтересів між етикою та корпоративними цілями.
    • Посилення тиску на уряди з метою регулювання передових систем ШІ, які є неймовірно потужними, але потенційно можуть порушувати права людини.

    Питання для коментарів

    • Як можна зробити фірми відповідальними за системи ШІ, які вони створюють?
    • Які інші потенційні небезпеки, якщо є зміщення ШІ?

    Посилання на Insight

    Для цієї інформації використовувалися такі популярні та інституційні посилання: