Франкен-Алгоритми: Алгоритми су пропали

КРЕДИТ ЗА СЛИКУ:
Слика кредит
иСтоцк

Франкен-Алгоритми: Алгоритми су пропали

Франкен-Алгоритми: Алгоритми су пропали

Текст поднаслова
Са развојем вештачке интелигенције, алгоритми се развијају брже него што су људи очекивали.
    • Аутор:
    • ime аутора
      Куантумрун Форесигхт
    • Април КСНУМКС, КСНУМКС

    Како алгоритми машинског учења (МЛ) постају напреднији, они су у стању да сами уче и прилагођавају се обрасцима у великим скуповима података. Овај процес, познат као „аутономно учење“, може довести до тога да алгоритам генерише сопствени код или правила за доношење одлука. Проблем са овим је што код који генерише алгоритам може бити тежак или немогућ за људе да схвате, што отежава откривање пристрасности. 

    Контекст Франкен-Алгоритама

    Франкен-Алгоритми се односе на алгоритме (правила која се рачунари придржавају приликом обраде података и одговарања на команде) који су постали толико сложени и испреплетени да људи више не могу да их дешифрују. Израз је знак научне фантастике Мери Шели о "чудовишту" које је створио луди научник др Франкенштајн. Док су алгоритми и кодови градивни блокови велике технологије и омогућили су Фејсбуку и Гуглу да буду утицајне компаније какве су сада, још увек има толико тога о технологији коју људи не знају. 

    Када програмери праве кодове и покрећу их кроз софтвер, МЛ омогућава рачунарима да разумеју и предвиде обрасце. Док велика технологија тврди да су алгоритми објективни јер људске емоције и непредвидивост не утичу на њих, ови алгоритми могу еволуирати и писати своја правила, што доводи до катастрофалних резултата. Код који генеришу ови алгоритми је често сложен и непрозиран, што отежава истраживачима или практичарима да тумаче одлуке алгоритма или да идентификују било какве пристрасности које могу бити присутне у процесу доношења одлука алгоритма. Ова блокада пута може створити значајне изазове за предузећа која се ослањају на ове алгоритме за доношење одлука, јер можда неће моћи да разумеју или објасне разлоге иза тих одлука.

    Ометајући утицај

    Када Франкен-алгоритми покваре, то може бити питање живота и смрти. Пример је несрећа 2018. године када је самовозећи аутомобил у Аризони ударио и убио жену која је возила бицикл. Алгоритми аутомобила нису успели да је исправно идентификују као човека. Стручњаци су били узнемирени око основног узрока несреће — да ли је аутомобил био неправилно програмиран и да ли је алгоритам постао превише сложен за његово добро? Оно око чега се програмери могу сложити, међутим, јесте да мора постојати систем надзора за софтверске компаније – етички кодекс. 

    Међутим, овај етички кодекс долази са неким одбијањем великих технологија јер се баве продајом података и алгоритама и не могу себи приуштити да буду регулисани или да буду транспарентни. Поред тога, недавни развој који је изазвао забринутост код великих технолошких запослених је све већа употреба алгоритама у војсци, као што је Гоогле-ово партнерство са Министарством одбране САД за инкорпорирање алгоритама у војну технологију, попут аутономних дронова. Ова апликација је довела до тога да су неки запослени дали отказ, а стручњаци изразили забринутост да су алгоритми и даље превише непредвидиви да би се користили као машине за убијање. 

    Друга забринутост је да Франкен-алгоритми могу продужити, па чак и појачати пристрасности због скупова података на којима су обучени. Овај процес може довести до различитих друштвених проблема, укључујући дискриминацију, неједнакост и незаконита хапшења. Због ових повећаних ризика, многе технолошке компаније почињу да објављују своје етичке смернице за вештачку интелигенцију како би биле транспарентне о ​​томе како развијају, користе и надгледају своје алгоритме.

    Шире импликације за Франкен-алгоритме

    Потенцијалне импликације за Франкен-алгоритме могу укључивати:

    • Развој аутономних система који могу доносити одлуке и предузимати акције без људског надзора, изазивајући забринутост за одговорност и безбедност. Међутим, такви алгоритми могу смањити трошкове развоја софтвера и роботике који могу аутоматизовати људски рад у већини индустрија. 
    • Више пажње о томе како алгоритми могу да аутоматизују војну технологију и подрже аутономно оружје и возила.
    • Повећан притисак на владе и лидере индустрије да имплементирају алгоритамски кодекс етике и прописа.
    • Франкен-алгоритми непропорционално утичу на одређене демографске групе, као што су заједнице са ниским приходима или мањинско становништво.
    • Франкен-алгоритми би могли да продуже и појачају дискриминацију и пристрасност у доношењу одлука, као што су одлуке о запошљавању и позајмљивању.
    • Ове алгоритме користе сајбер криминалци за праћење и искориштавање слабости система, посебно у финансијским институцијама.
    • Политички актери који користе лажне алгоритме да аутоматизују маркетиншке кампање користећи генеративне системе вештачке интелигенције на начине који могу утицати на јавно мњење и утицати на изборе.

    Питања која треба размотрити

    • Шта мислите како ће се алгоритми даље развијати у будућности?
    • Шта владе и компаније могу да ураде да контролишу Франкен-алгоритме?

    Референце за увид

    Следеће популарне и институционалне везе су референциране за овај увид:

    Еверсхедс Сутхерланд Последице непредвидивог кода