Усклађивање вештачке интелигенције: Усклађивање циљева вештачке интелигенције одговара људским вредностима

КРЕДИТ ЗА СЛИКУ:
Слика кредит
иСтоцк

Усклађивање вештачке интелигенције: Усклађивање циљева вештачке интелигенције одговара људским вредностима

Усклађивање вештачке интелигенције: Усклађивање циљева вештачке интелигенције одговара људским вредностима

Текст поднаслова
Неки истраживачи сматрају да треба предузети мере како би се осигурало да вештачка интелигенција не штети друштву.
    • Аутор:
    • ime аутора
      Куантумрун Форесигхт
    • Januar 25, 2023

    Усклађивање вештачке интелигенције (АИ) је када се циљеви система вештачке интелигенције подударају са људским вредностима. Компаније попут ОпенАИ, ДеепМинд и Антхропиц имају тимове истраживача чији је једини фокус проучавање заштитних ограда за различите сценарије у којима би се то могло догодити.

    Контекст усклађивања АИ

    Према истраживачкој студији Универзитета Корнел из 2021. године, неколико студија је показало да алати или модели креирани алгоритмима показују пристрасност добијену из података на којима су обучени. На пример, у процесу обраде природног језика (НЛП), документовани су одабрани НЛП модели обучени на ограниченим скуповима података који предвиђају на основу штетних родних стереотипа према женама. Слично томе, друге студије су откриле да алгоритми обучени на неовлаштеном скупу података резултирају расно пристрасним препорукама, посебно у полицији.

    Постоји много примера у којима су системи машинског учења лошији за мањине или групе које пате од вишеструких недостатака. Конкретно, аутоматска анализа лица и здравствена дијагностика обично не функционишу добро за жене и обојене особе. Када се критични системи који би требало да се заснивају на чињеницама и логици уместо на емоцијама користе у контекстима као што су додељивање здравствене заштите или образовања, они могу учинити више штете тако што ће отежати идентификацију разлога иза ових препорука.

    Као резултат тога, технолошке фирме стварају тимове за усклађивање АИ како би се фокусирали на одржавање алгоритама праведним и хуманим. Истраживање је од суштинског значаја за разумевање правца напредних система вештачке интелигенције, као и изазова са којима бисмо се могли суочити како АИ способности расту.

    Ометајући утицај

    Према Јану Леикеу, шефу АИ усклађивања у ОпенАИ (2021), с обзиром на то да су системи вештачке интелигенције постали способни тек 2010-их, разумљиво је да је већина истраживања усклађивања вештачке интелигенције била тешка. Када су изузетно моћни системи вештачке интелигенције усклађени, један од изазова са којима се људи суочавају је да ове машине могу створити решења која су превише компликована да би се прегледала и проценила да ли имају етички смисао.

    Леике је осмислио стратегију рекурзивног моделирања награђивања (РРМ) да би решио овај проблем. Са РРМ-ом, неколико "помоћних" АИ се подучава да помогну човеку да процени колико добро функционише сложенија АИ. Он је оптимиста у погледу могућности стварања нечега што назива „МВП поравнања“. У смислу покретања, МВП (или минимално одржив производ) је најједноставнији могући производ који компанија може да направи да би тестирала идеју. Надамо се да ће једног дана АИ ускладити људске перформансе у истраживању вештачке интелигенције и њеном усклађивању са вредностима, а истовремено ће бити функционална.

    Иако је све веће интересовање за усклађивање вештачке интелигенције чиста позитива, многи аналитичари у овој области сматрају да је велики део „етичког“ рада у водећим лабораторијама вештачке интелигенције само односи са јавношћу осмишљени тако да технолошке компаније изгледају добро и избегавају негативан публицитет. Ови појединци не очекују да ће етичка пракса развоја ускоро постати приоритет за ове компаније.

    Ова запажања наглашавају важност интердисциплинарних приступа за напоре за усклађивање вредности, пошто је ово релативно нова област моралног и техничког истраживања. Различите гране знања треба да буду део инклузивног истраживачког програма. Ова иницијатива такође указује на потребу да технолози и креатори политике остану свесни свог друштвеног контекста и заинтересованих страна, чак и када системи вештачке интелигенције постају напреднији.

    Импликације усклађивања АИ

    Шире импликације усклађивања АИ могу укључивати: 

    • Лабораторије за вештачку интелигенцију ангажују различите етичке одборе да надгледају пројекте и испуњавају етичке смернице АИ. 
    • Владе креирају законе који захтевају од компанија да поднесу свој одговорни АИ оквир и како планирају да даље развијају своје АИ пројекте.
    • Повећане контроверзе о употреби алгоритама у регрутовању, јавном надзору и спровођењу закона.
    • Истраживачи су отпуштени из великих АИ лабораторија због сукоба интереса између етике и корпоративних циљева.
    • Већи притисак на владе да регулишу напредне системе вештачке интелигенције који су и невероватно моћни, али потенцијално могу да крше људска права.

    Питања за коментарисање

    • Како компаније могу бити одговорне за системе вештачке интелигенције које креирају?
    • Које су друге потенцијалне опасности ако постоји неусклађеност АИ?

    Референце за увид

    Следеће популарне и институционалне везе су референциране за овај увид: