Выраўноўванне штучнага інтэлекту: супадзенне мэт штучнага інтэлекту з чалавечымі каштоўнасцямі
Выраўноўванне штучнага інтэлекту: супадзенне мэт штучнага інтэлекту з чалавечымі каштоўнасцямі
Выраўноўванне штучнага інтэлекту: супадзенне мэт штучнага інтэлекту з чалавечымі каштоўнасцямі
- аўтар:
- Студзень 25, 2023
Выраўноўванне штучнага інтэлекту (AI) - гэта калі мэты сістэмы AI супадаюць з чалавечымі каштоўнасцямі. Такія кампаніі, як OpenAI, DeepMind і Anthropic, маюць групы даследчыкаў, адзінай задачай якіх з'яўляецца вывучэнне агароджаў для розных сцэнарыяў, у якіх гэта можа адбыцца.
Кантэкст выраўноўвання AI
Згодна з даследаваннем Карнельскага ўніверсітэта 2021 года, некалькі даследаванняў паказалі, што інструменты або мадэлі, створаныя з дапамогай алгарытмаў, дэманструюць зрушэнне, атрыманае з даных, на якіх яны навучаліся. Напрыклад, пры апрацоўцы натуральнай мовы (НЛП) асобныя мадэлі НЛП, навучаныя на абмежаваных наборах даных, былі задакументаваны, робячы прагнозы, заснаваныя на шкодных гендэрных стэрэатыпах у дачыненні да жанчын. Падобным чынам іншыя даследаванні паказалі, што алгарытмы, навучаныя на падробленым наборы даных, прывялі да расавых прадузятых рэкамендацый, асабліва ў паліцыі.
Ёсць мноства прыкладаў таго, што сістэмы машыннага навучання горш спраўляліся з меншасцямі або групамі, якія пакутуюць ад шматлікіх недахопаў. У прыватнасці, аўтаматызаваны аналіз асобы і дыягностыка аховы здароўя звычайна не вельмі добра працуюць для жанчын і каляровых людзей. Калі крытычна важныя сістэмы, якія павінны грунтавацца на фактах і логіцы, а не на эмоцыях, выкарыстоўваюцца ў такіх кантэкстах, як размеркаванне аховы здароўя або адукацыі, яны могуць нанесці больш шкоды, ускладняючы ідэнтыфікацыю аргументаў гэтых рэкамендацый.
У выніку тэхналагічныя фірмы ствараюць каманды па наладжванні штучнага інтэлекту, каб засяродзіцца на захаванні справядлівых і гуманных алгарытмаў. Даследаванні важныя для разумення напрамку перадавых сістэм штучнага інтэлекту, а таксама праблем, з якімі мы можам сутыкнуцца па меры росту магчымасцей штучнага інтэлекту.
Разбуральнае ўздзеянне
Па словах Яна Лейке, кіраўніка аддзела выраўноўвання штучнага інтэлекту ў OpenAI (2021), улічваючы, што сістэмы штучнага інтэлекту сталі функцыянальнымі толькі ў 2010-х гадах, зразумела, што большасць даследаванняў па ўзгадненні штучнага інтэлекту з'яўляюцца цяжкімі для тэорыі. Калі надзвычай магутныя сістэмы штучнага інтэлекту выраўноўваюцца, адна з праблем, з якімі сутыкаюцца людзі, заключаецца ў тым, што гэтыя машыны могуць ствараць рашэнні, якія занадта складаныя для праверкі і ацэнкі, ці маюць яны этычны сэнс.
Leike распрацаваў стратэгію рэкурсіўнага мадэлявання ўзнагароджання (RRM), каб выправіць гэтую праблему. З дапамогай RRM некалькі «памочнікаў» AI навучаюцца, каб дапамагчы чалавеку ацаніць, наколькі добра працуе больш складаны AI. Ён аптымістычна глядзіць на магчымасць стварэння чагосьці, што ён называе "выраўноўванне MVP". З пункту гледжання стартапа, MVP (або мінімальна жыццяздольны прадукт) - гэта самы просты прадукт, які кампанія можа стварыць для праверкі ідэі. Ёсць надзея, што калі-небудзь штучны інтэлект будзе адпавядаць прадукцыйнасці чалавека ў даследаванні штучнага інтэлекту і яго ўзгадненні з каштоўнасцямі, а таксама будзе функцыянальным.
У той час як рост цікавасці да ўзгаднення штучнага інтэлекту з'яўляецца чыстым станоўчым момантам, многія аналітыкі ў гэтай галіне лічаць, што большая частка працы па "этыцы" ў вядучых лабараторыях штучнага інтэлекту - гэта проста сувязі з грамадскасцю, накіраваныя на тое, каб тэхналагічныя кампаніі выглядалі добра і пазбягалі негатыўнай рэкламы. Гэтыя людзі не чакаюць, што этычная практыка развіцця стане прыярытэтам для гэтых кампаній у бліжэйшы час.
Гэтыя назіранні падкрэсліваюць важнасць міждысцыплінарных падыходаў для выраўноўвання каштоўнасцяў, паколькі гэта адносна новая вобласць маральных і тэхнічных даследаванняў. Розныя галіны ведаў павінны быць часткай праграмы інклюзіўных даследаванняў. Гэтая ініцыятыва таксама паказвае на тое, што тэхнолагам і палітыкам неабходна заставацца ў курсе свайго сацыяльнага кантэксту і зацікаўленых бакоў, нават калі сістэмы штучнага інтэлекту становяцца ўсё больш прасунутымі.
Наступствы выраўноўвання штучнага інтэлекту
Больш шырокія наступствы выраўноўвання штучнага інтэлекту могуць уключаць:
- Лабараторыі штучнага інтэлекту наймаюць розныя саветы па этыцы для кантролю за праектамі і выканання рэкамендацый па этыцы штучнага інтэлекту.
- Урады ствараюць законы, якія патрабуюць ад кампаній прадставіць сваю адказную структуру AI і тое, як яны плануюць далей развіваць свае праекты AI.
- Узмацненне спрэчак адносна выкарыстання алгарытмаў пры наборы персаналу, грамадскім назіранні і праваахоўных органах.
- Даследчыкаў звальняюць з буйных лабараторый штучнага інтэлекту з-за канфлікту інтарэсаў паміж этыкай і карпаратыўнымі мэтамі.
- Узмацненне ціску на ўрады з мэтай рэгулявання перадавых сістэм штучнага інтэлекту, якія з'яўляюцца неверагодна магутнымі, але патэнцыйна могуць парушаць правы чалавека.
Пытанні для каментавання
- Як можна прыцягнуць фірмы да адказнасці за створаныя імі сістэмы штучнага інтэлекту?
- Якія іншыя патэнцыйныя небяспекі, калі ёсць зрушэнне ІІ?
Спасылкі Insight
Наступныя папулярныя і інстытуцыйныя спасылкі былі выкарыстаны для гэтай інфармацыі: