Усогласување со вештачка интелигенција: Усогласувањето со целите на вештачката интелигенција одговара на човечките вредности

КРЕДИТ НА СЛИКА:
Слика кредит
iStock

Усогласување со вештачка интелигенција: Усогласувањето со целите на вештачката интелигенција одговара на човечките вредности

Усогласување со вештачка интелигенција: Усогласувањето со целите на вештачката интелигенција одговара на човечките вредности

Текст за поднаслов
Некои истражувачи веруваат дека треба да се спроведат мерки за да се осигура дека вештачката интелигенција нема да му наштети на општеството.
    • автор:
    • име на авторот
      Quantumrun Foresight
    • Јануари 25, 2023

    Порамнувањето на вештачката интелигенција (ВИ) е кога целите на системот за вештачка интелигенција се совпаѓаат со човечките вредности. Компаниите како OpenAI, DeepMind и Anthropic имаат тимови на истражувачи чиј единствен фокус е да ги проучуваат заштитните огради за различни сценарија во кои тоа може да се случи.

    Контекс на усогласување со вештачка интелигенција

    Според истражувањето на Универзитетот во Корнел од 2021 година, неколку студии покажаа дека алатките или моделите создадени од алгоритмите прикажуваат пристрасност добиена од податоците за кои биле обучени. На пример, во обработката на природниот јазик (НЛП), одредени модели на НЛП обучени за ограничени збирки на податоци се документирани да прават предвидувања врз основа на штетни родови стереотипи за жените. Слично на тоа, други студии открија дека алгоритмите обучени за манипулирани податоци резултирале со расни пристрасни препораки, особено во полициската служба.

    Има многу примери во кои системите за машинско учење направија полошо за малцинствата или групите кои страдаат од повеќекратни недостатоци. Особено, автоматизираната анализа на лицето и дијагностика за здравствена заштита обично не функционираат многу добро за жените и луѓето со боја. Кога критичните системи што треба да се засноваат на факти и логика наместо на емоции се користат во контексти како што се доделување здравствена заштита или образование, тие можат да направат поголема штета со тоа што ќе го отежнат идентификувањето на резонирањето зад овие препораки.

    Како резултат на тоа, технолошките фирми создаваат тимови за усогласување со вештачка интелигенција за да се фокусираат на одржување на фер и хумани алгоритми. Истражувањето е од суштинско значење за разбирање на насоката на напредните системи за вештачка интелигенција, како и предизвиците со кои би можеле да се соочиме додека растат способностите за вештачка интелигенција.

    Нарушувачко влијание

    Според Јан Лејк, шеф на усогласувањето со вештачката интелигенција во OpenAI (2021), со оглед на тоа што системите за вештачка интелигенција станаа способни дури во 2010-тите, разбирливо е дека повеќето истражувања за усогласување со вештачка интелигенција биле тешки теоретски. Кога се усогласуваат неизмерно моќните системи за вештачка интелигенција, еден од предизвиците со кои се соочуваат луѓето е тоа што овие машини може да создадат решенија кои се премногу комплицирани за да се прегледаат и проценат дали имаат етички смисла.

    Лејк смислил стратегија за рекурзивно моделирање на награди (RRM) за да го реши овој проблем. Со RRM, се учат неколку „помошни“ ВИ за да му помогнат на човекот да процени колку добро функционира покомплексна вештачка интелигенција. Тој е оптимист за можноста да создаде нешто што го нарекува „МВП на трасата“. Во стартап термини, MVP (или минимален остварлив производ) е наједноставниот можен производ што може да го изгради компанијата за да тестира идеја. Надежта е дека еден ден, вештачката интелигенција се совпаѓа со човечките перформанси во истражувањето на вештачката интелигенција и нејзиното усогласување со вредностите, а истовремено да биде функционално.

    Иако зголемениот интерес за усогласување со вештачката интелигенција е нето позитивно, многу аналитичари во областа мислат дека голем дел од „етиката“ работа во водечките лаборатории за вештачка интелигенција е само односи со јавноста дизајнирани да направат технолошките компании да изгледаат добро и да избегнат негативен публицитет. Овие поединци не очекуваат практиките за етички развој да станат приоритет за овие компании во скоро време.

    Овие набљудувања ја нагласуваат важноста на интердисциплинарните пристапи за напорите за усогласување на вредностите, бидејќи ова е релативно нова област на морално и техничко истражување. Различните гранки на знаење треба да бидат дел од инклузивната истражувачка агенда. Оваа иницијатива, исто така, укажува на потребата технолозите и креаторите на политики да останат свесни за нивниот социјален контекст и засегнати страни, дури и кога системите за вештачка интелигенција стануваат понапредни.

    Импликации на усогласување со вештачка интелигенција

    Пошироките импликации на усогласувањето со ВИ може да вклучуваат: 

    • Лаборатории за вештачка интелигенција ангажираат различни етички одбори за да ги надгледуваат проектите и да ги исполнат етичките упатства за вештачка интелигенција. 
    • Владите создаваат закони кои бараат од компаниите да ја поднесат својата одговорна рамка за вештачка интелигенција и како планираат понатаму да ги развиваат своите проекти за вештачка интелигенција.
    • Зголемени контроверзи за употребата на алгоритми при регрутирање, јавен надзор и спроведување на законот.
    • Истражувачите се отпуштени од големи лаборатории за вештачка интелигенција поради конфликт на интереси помеѓу етиката и корпоративните цели.
    • Поголем притисок за владите да ги регулираат напредните системи за вештачка интелигенција кои се и неверојатно моќни, но потенцијално можат да ги прекршат човековите права.

    Прашања за коментирање

    • Како може фирмите да бидат одговорни за системите за вештачка интелигенција што ги создаваат?
    • Кои се другите потенцијални опасности доколку има неусогласеност со ВИ?