Franken-Algorithms: Алгоритми, які стали шахраями
Franken-Algorithms: Алгоритми, які стали шахраями
Franken-Algorithms: Алгоритми, які стали шахраями
- Автор:
- Квітень 12, 2023
Оскільки алгоритми машинного навчання (ML) стають більш досконалими, вони здатні навчатися та адаптуватися до шаблонів у великих наборах даних самостійно. Цей процес, відомий як «автономне навчання», може призвести до створення алгоритмом власного коду або правил для прийняття рішень. Проблема полягає в тому, що код, створений алгоритмом, може бути складним або неможливим для розуміння людьми, що ускладнює виявлення упереджень.
Контекст алгоритмів Франкена
Алгоритми Франкена стосуються алгоритмів (правил, яких дотримуються комп’ютери під час обробки даних і відповіді на команди), які стали настільки складними та переплетеними, що люди більше не можуть їх розшифрувати. Цей термін є нахилом до наукової фантастики Мері Шеллі про «монстра», створеного божевільним ученим доктором Франкенштейном. Незважаючи на те, що алгоритми та коди є будівельними блоками великих технологій і дозволили Facebook і Google стати впливовими компаніями, якими вони є зараз, про технологію ще багато чого не знають люди.
Коли програмісти створюють коди та запускають їх через програмне забезпечення, ML дозволяє комп’ютерам розуміти та передбачати шаблони. У той час як велика техніка стверджує, що алгоритми є об’єктивними, оскільки людські емоції та непередбачуваність не впливають на них, ці алгоритми можуть розвиватися та писати власні правила, що призводить до катастрофічних результатів. Код, створений цими алгоритмами, часто є складним і непрозорим, що ускладнює для дослідників і практиків інтерпретацію рішень алгоритму або виявлення будь-яких упереджень, які можуть бути присутніми в процесі прийняття рішень алгоритмом. Ця перешкода може створити серйозні труднощі для компаній, які покладаються на ці алгоритми для прийняття рішень, оскільки вони можуть бути не в змозі зрозуміти або пояснити причини цих рішень.
Руйнівний вплив
Коли Franken-Algorithms виходять із ладу, це може бути питанням життя чи смерті. Прикладом стала аварія в 2018 році, коли в Арізоні безпілотний автомобіль збив і вбив жінку, яка їхала на велосипеді. Алгоритми автомобіля не змогли правильно ідентифікувати її як людину. Експерти роздиралися щодо першопричини аварії — чи була машина неправильно запрограмована, чи алгоритм став надто складним для власного блага? Однак програмісти можуть погодитися з тим, що для компаній, що займаються програмним забезпеченням, потрібна система нагляду — кодекс етики.
Однак цей етичний кодекс викликав певну відмову з боку великих технологій, оскільки вони займаються продажем даних і алгоритмів і не можуть дозволити собі, щоб їх регулювали чи вимагали бути прозорими. Крім того, нещодавня подія, яка викликала занепокоєння у великих технічних працівників, полягає в тому, що все більше використання алгоритмів у збройних силах, як-от партнерство Google із Міністерством оборони США для включення алгоритмів у військову техніку, як-от автономні дрони. Ця програма призвела до того, що деякі співробітники звільнилися, а експерти висловили занепокоєння, що алгоритми все ще надто непередбачувані, щоб використовувати їх як машини для вбивства.
Інше занепокоєння полягає в тому, що алгоритми Франкена можуть зберегти і навіть посилити упередження через набори даних, на яких вони навчаються. Цей процес може призвести до різних суспільних проблем, включаючи дискримінацію, нерівність і неправомірні арешти. Через ці підвищені ризики багато технологічних компаній починають публікувати свої етичні рекомендації щодо ШІ, щоб бути прозорими щодо того, як вони розробляють, використовують і контролюють свої алгоритми.
Більш широкі наслідки для алгоритмів Франкена
Потенційні наслідки для алгоритмів Франкена можуть включати:
- Розвиток автономних систем, які можуть приймати рішення та виконувати дії без нагляду з боку людини, що викликає занепокоєння щодо підзвітності та безпеки. Однак такі алгоритми можуть зменшити витрати на розробку програмного забезпечення та робототехніки, які можуть автоматизувати людську працю в більшості галузей.
- Більше уваги до того, як алгоритми можуть автоматизувати військові технології та підтримувати автономну зброю та транспортні засоби.
- Посилення тиску на уряди та галузевих лідерів щодо впровадження кодексу етики та правил алгоритму.
- Алгоритми Франкена непропорційно впливають на певні демографічні групи, як-от спільноти з низьким рівнем доходу чи меншини.
- Алгоритми Франкена можуть увічнити та посилити дискримінацію та упередженість у прийнятті рішень, таких як рішення щодо найму та позичання.
- Ці алгоритми використовуються кіберзлочинцями для моніторингу та використання слабких місць у системах, зокрема у фінансових установах.
- Політичні актори використовують фальшиві алгоритми для автоматизації маркетингових кампаній за допомогою генеративних систем штучного інтелекту таким чином, щоб впливати на громадську думку та впливати на вибори.
Питання для розгляду
- Як, на вашу думку, будуть розвиватися алгоритми в майбутньому?
- Що можуть зробити уряди та компанії, щоб контролювати алгоритми Франкена?
Посилання на Insight
Для цієї інформації використовувалися такі популярні та інституційні посилання: