Выраўноўванне штучнага інтэлекту: супадзенне мэт штучнага інтэлекту з чалавечымі каштоўнасцямі

КРЭДЫТ ВЫЯВЫ:
Крэдыт малюнка
Istock

Выраўноўванне штучнага інтэлекту: супадзенне мэт штучнага інтэлекту з чалавечымі каштоўнасцямі

Выраўноўванне штучнага інтэлекту: супадзенне мэт штучнага інтэлекту з чалавечымі каштоўнасцямі

Тэкст падзагалоўка
Некаторыя даследчыкі лічаць, што трэба ўжыць меры, каб штучны інтэлект не наносіў шкоды грамадству.
    • аўтар:
    • імя аўтара
      Quantumrun Foresight
    • Студзень 25, 2023

    Выраўноўванне штучнага інтэлекту (AI) - гэта калі мэты сістэмы AI супадаюць з чалавечымі каштоўнасцямі. Такія кампаніі, як OpenAI, DeepMind і Anthropic, маюць групы даследчыкаў, адзінай задачай якіх з'яўляецца вывучэнне агароджаў для розных сцэнарыяў, у якіх гэта можа адбыцца.

    Кантэкст выраўноўвання AI

    Згодна з даследаваннем Карнельскага ўніверсітэта 2021 года, некалькі даследаванняў паказалі, што інструменты або мадэлі, створаныя з дапамогай алгарытмаў, дэманструюць зрушэнне, атрыманае з даных, на якіх яны навучаліся. Напрыклад, пры апрацоўцы натуральнай мовы (НЛП) асобныя мадэлі НЛП, навучаныя на абмежаваных наборах даных, былі задакументаваны, робячы прагнозы, заснаваныя на шкодных гендэрных стэрэатыпах у дачыненні да жанчын. Падобным чынам іншыя даследаванні паказалі, што алгарытмы, навучаныя на падробленым наборы даных, прывялі да расавых прадузятых рэкамендацый, асабліва ў паліцыі.

    Ёсць мноства прыкладаў таго, што сістэмы машыннага навучання горш спраўляліся з меншасцямі або групамі, якія пакутуюць ад шматлікіх недахопаў. У прыватнасці, аўтаматызаваны аналіз асобы і дыягностыка аховы здароўя звычайна не вельмі добра працуюць для жанчын і каляровых людзей. Калі крытычна важныя сістэмы, якія павінны грунтавацца на фактах і логіцы, а не на эмоцыях, выкарыстоўваюцца ў такіх кантэкстах, як размеркаванне аховы здароўя або адукацыі, яны могуць нанесці больш шкоды, ускладняючы ідэнтыфікацыю аргументаў гэтых рэкамендацый.

    У выніку тэхналагічныя фірмы ствараюць каманды па наладжванні штучнага інтэлекту, каб засяродзіцца на захаванні справядлівых і гуманных алгарытмаў. Даследаванні важныя для разумення напрамку перадавых сістэм штучнага інтэлекту, а таксама праблем, з якімі мы можам сутыкнуцца па меры росту магчымасцей штучнага інтэлекту.

    Разбуральнае ўздзеянне

    Па словах Яна Лейке, кіраўніка аддзела выраўноўвання штучнага інтэлекту ў OpenAI (2021), улічваючы, што сістэмы штучнага інтэлекту сталі функцыянальнымі толькі ў 2010-х гадах, зразумела, што большасць даследаванняў па ўзгадненні штучнага інтэлекту з'яўляюцца цяжкімі для тэорыі. Калі надзвычай магутныя сістэмы штучнага інтэлекту выраўноўваюцца, адна з праблем, з якімі сутыкаюцца людзі, заключаецца ў тым, што гэтыя машыны могуць ствараць рашэнні, якія занадта складаныя для праверкі і ацэнкі, ці маюць яны этычны сэнс.

    Leike распрацаваў стратэгію рэкурсіўнага мадэлявання ўзнагароджання (RRM), каб выправіць гэтую праблему. З дапамогай RRM некалькі «памочнікаў» AI навучаюцца, каб дапамагчы чалавеку ацаніць, наколькі добра працуе больш складаны AI. Ён аптымістычна глядзіць на магчымасць стварэння чагосьці, што ён называе "выраўноўванне MVP". З пункту гледжання стартапа, MVP (або мінімальна жыццяздольны прадукт) - гэта самы просты прадукт, які кампанія можа стварыць для праверкі ідэі. Ёсць надзея, што калі-небудзь штучны інтэлект будзе адпавядаць прадукцыйнасці чалавека ў даследаванні штучнага інтэлекту і яго ўзгадненні з каштоўнасцямі, а таксама будзе функцыянальным.

    У той час як рост цікавасці да ўзгаднення штучнага інтэлекту з'яўляецца чыстым станоўчым момантам, многія аналітыкі ў гэтай галіне лічаць, што большая частка працы па "этыцы" ў вядучых лабараторыях штучнага інтэлекту - гэта проста сувязі з грамадскасцю, накіраваныя на тое, каб тэхналагічныя кампаніі выглядалі добра і пазбягалі негатыўнай рэкламы. Гэтыя людзі не чакаюць, што этычная практыка развіцця стане прыярытэтам для гэтых кампаній у бліжэйшы час.

    Гэтыя назіранні падкрэсліваюць важнасць міждысцыплінарных падыходаў для выраўноўвання каштоўнасцяў, паколькі гэта адносна новая вобласць маральных і тэхнічных даследаванняў. Розныя галіны ведаў павінны быць часткай праграмы інклюзіўных даследаванняў. Гэтая ініцыятыва таксама паказвае на тое, што тэхнолагам і палітыкам неабходна заставацца ў курсе свайго сацыяльнага кантэксту і зацікаўленых бакоў, нават калі сістэмы штучнага інтэлекту становяцца ўсё больш прасунутымі.

    Наступствы выраўноўвання штучнага інтэлекту

    Больш шырокія наступствы выраўноўвання штучнага інтэлекту могуць уключаць: 

    • Лабараторыі штучнага інтэлекту наймаюць розныя саветы па этыцы для кантролю за праектамі і выканання рэкамендацый па этыцы штучнага інтэлекту. 
    • Урады ствараюць законы, якія патрабуюць ад кампаній прадставіць сваю адказную структуру AI і тое, як яны плануюць далей развіваць свае праекты AI.
    • Узмацненне спрэчак адносна выкарыстання алгарытмаў пры наборы персаналу, грамадскім назіранні і праваахоўных органах.
    • Даследчыкаў звальняюць з буйных лабараторый штучнага інтэлекту з-за канфлікту інтарэсаў паміж этыкай і карпаратыўнымі мэтамі.
    • Узмацненне ціску на ўрады з мэтай рэгулявання перадавых сістэм штучнага інтэлекту, якія з'яўляюцца неверагодна магутнымі, але патэнцыйна могуць парушаць правы чалавека.

    Пытанні для каментавання

    • Як можна прыцягнуць фірмы да адказнасці за створаныя імі сістэмы штучнага інтэлекту?
    • Якія іншыя патэнцыйныя небяспекі, калі ёсць зрушэнне ІІ?