Подравняване на AI: Съответствието на целите на изкуствения интелект съответства на човешките ценности

КРЕДИТ ЗА ИЗОБРАЖЕНИЕ:
Изображение на кредит
iStock

Подравняване на AI: Съответствието на целите на изкуствения интелект съответства на човешките ценности

Подравняване на AI: Съответствието на целите на изкуствения интелект съответства на човешките ценности

Подзаглавен текст
Някои изследователи смятат, че трябва да се приложат мерки, за да се гарантира, че изкуственият интелект не вреди на обществото.
    • Автор:
    • име Автор
      Quantumrun Foresight
    • Януари 25, 2023

    Подравняването на изкуствения интелект (AI) е, когато целите на системата на AI съвпадат с човешките ценности. Компании като OpenAI, DeepMind и Anthropic имат екипи от изследователи, чийто единствен фокус е да изучават предпазни огради за различни сценарии, при които това може да се случи.

    Контекст за подравняване на AI

    Според проучване на университета Корнел от 2021 г. няколко проучвания показват, че инструментите или моделите, създадени от алгоритми, показват пристрастия, произтичащи от данните, върху които са били обучени. Например, при обработката на естествения език (NLP), избрани NLP модели, обучени върху ограничени набори от данни, са документирани, правейки прогнози въз основа на вредни полови стереотипи срещу жените. По подобен начин други проучвания установиха, че алгоритмите, обучени върху подправен набор от данни, са довели до расово предубедени препоръки, особено в полицията.

    Има много примери, в които системите за машинно обучение са се справили по-зле с малцинства или групи, страдащи от множество недостатъци. По-специално, автоматизираният анализ на лицето и здравната диагностика обикновено не работят много добре за жени и цветнокожи хора. Когато критични системи, които трябва да се основават на факти и логика вместо на емоции, се използват в контексти като разпределяне на здравеопазване или образование, те могат да нанесат повече щети, като затруднят идентифицирането на мотивите зад тези препоръки.

    В резултат на това технологичните фирми създават екипи за привеждане в съответствие с ИИ, за да се съсредоточат върху поддържането на алгоритмите справедливи и хуманни. Изследванията са от съществено значение за разбирането на посоката на напредналите AI системи, както и предизвикателствата, пред които можем да се изправим, докато възможностите на AI растат.

    Разрушително въздействие

    Според Ян Лейке, ръководител на подравняването на ИИ в OpenAI (2021 г.), като се има предвид, че системите с ИИ са станали способни едва през 2010 г., разбираемо е, че повечето изследвания за подравняване на ИИ са тежки на теория. Когато изключително мощни AI системи са подравнени, едно от предизвикателствата, пред които са изправени хората, е, че тези машини могат да създадат решения, които са твърде сложни за преглед и оценка дали имат смисъл от етична гледна точка.

    Leike разработи стратегия за моделиране на рекурсивно възнаграждение (RRM), за да реши този проблем. С RRM се обучават няколко „помощни“ ИИ, за да помогнат на човек да оцени колко добре се представя по-сложен ИИ. Той е оптимист за възможността да създаде нещо, което той нарича „полезен за подравняване MVP“. От гледна точка на стартиране, MVP (или минимално жизнеспособен продукт) е най-простият възможен продукт, който една компания може да изгради, за да тества идея. Надеждата е, че някой ден AI отговаря на човешката производителност в изследването на AI и привеждането му в съответствие с ценностите, като същевременно е функционален.

    Докато нарастващият интерес към привеждането в съответствие с ИИ е чисто положителен, много анализатори в областта смятат, че голяма част от работата по „етика“ във водещи лаборатории за ИИ е просто връзки с обществеността, предназначени да накарат технологичните компании да изглеждат добре и да избегнат негативна публичност. Тези хора не очакват практиките за етично развитие да станат приоритет за тези компании в скоро време.

    Тези наблюдения подчертават значението на интердисциплинарните подходи за усилията за привеждане в съответствие на ценностите, тъй като това е сравнително нова област на морално и техническо изследване. Различните клонове на знанието трябва да бъдат част от приобщаваща изследователска програма. Тази инициатива също така посочва необходимостта технолозите и политиците да останат наясно със своя социален контекст и заинтересовани страни, дори когато системите за изкуствен интелект стават все по-напреднали.

    Последици от подравняването на AI

    По-широките последици от подравняването на ИИ могат да включват: 

    • Лаборатории за изкуствен интелект, наемащи различни съвети по етика, за да наблюдават проекти и да изпълняват етичните насоки за ИИ. 
    • Правителствата създават закони, които изискват от компаниите да представят своята отговорна рамка за ИИ и как планират да доразвият своите проекти за ИИ.
    • Засилени противоречия относно използването на алгоритми при набиране на персонал, обществено наблюдение и правоприлагане.
    • Уволняват изследователи от големи лаборатории за ИИ поради конфликт на интереси между етиката и корпоративните цели.
    • По-голям натиск за правителствата да регулират усъвършенствани системи за изкуствен интелект, които са едновременно невероятно мощни, но потенциално могат да нарушат човешките права.

    Въпроси за коментар

    • Как фирмите могат да бъдат накарани отговорни за системите за изкуствен интелект, които създават?
    • Какви са другите потенциални опасности, ако има разместване на AI?