Franken-Algorithms: алгарытмы, якія сталі жулікамі

КРЭДЫТ ВЫЯВЫ:
Крэдыт малюнка
Istock

Franken-Algorithms: алгарытмы, якія сталі жулікамі

Franken-Algorithms: алгарытмы, якія сталі жулікамі

Тэкст падзагалоўка
З развіццём штучнага інтэлекту алгарытмы развіваюцца хутчэй, чым чакалі людзі.
    • аўтар:
    • імя аўтара
      Quantumrun Foresight
    • Красавік 12, 2023

    Калі алгарытмы машыннага навучання (ML) становяцца ўсё больш дасканалымі, яны могуць вучыцца і адаптавацца да шаблонаў у вялікіх наборах даных самастойна. Гэты працэс, вядомы як "аўтаномнае навучанне", можа прывесці да таго, што алгарытм генеруе ўласны код або правілы для прыняцця рашэнняў. Праблема ў тым, што код, згенераваны алгарытмам, можа быць цяжкім або немагчымым для разумення людзьмі, што ўскладняе выяўленне прадузятасцей. 

    Кантэкст алгарытмаў Франкена

    Алгарытмы Франкена адносяцца да алгарытмаў (правілаў, якім прытрымліваюцца кампутары пры апрацоўцы даных і адказе на каманды), якія сталі настолькі складанымі і пераплеценымі, што людзі больш не могуць іх расшыфраваць. Тэрмін - гэта адсылка да навуковай фантастыкі Мэры Шэлі пра "монстра", створанага вар'ятам навукоўцам доктарам Франкенштэйнам. Нягледзячы на ​​тое, што алгарытмы і коды з'яўляюцца будаўнічымі блокамі вялікіх тэхналогій і дазволілі Facebook і Google стаць уплывовымі кампаніямі, якімі яны з'яўляюцца цяпер, у гэтай тэхналогіі ёсць яшчэ шмат чаго, чаго людзі не ведаюць. 

    Калі праграмісты ствараюць коды і запускаюць іх праз праграмнае забеспячэнне, ML дазваляе кампутарам разумець і прадказваць шаблоны. У той час як вялікія тэхналогіі сцвярджаюць, што алгарытмы аб'ектыўныя, таму што чалавечыя эмоцыі і непрадказальнасць не ўплываюць на іх, гэтыя алгарытмы могуць развівацца і пісаць свае ўласныя правілы, што прыводзіць да катастрафічных вынікаў. Код, створаны гэтымі алгарытмамі, часта складаны і непразрысты, што ўскладняе даследчыкам і практыкам інтэрпрэтацыю рашэнняў алгарытму або выяўленне любых прадузятасцей, якія могуць прысутнічаць у працэсе прыняцця рашэнняў алгарытмам. Гэта перашкода можа стварыць сур'ёзныя праблемы для прадпрыемстваў, якія абапіраюцца на гэтыя алгарытмы пры прыняцці рашэнняў, паколькі яны могуць быць не ў стане зразумець або растлумачыць прычыну гэтых рашэнняў.

    Разбуральнае ўздзеянне

    Калі Franken-Algorithms выходзяць з ладу, гэта можа быць пытаннем жыцця і смерці. Прыкладам стала аварыя ў 2018 годзе, калі беспілотны аўтамабіль у Арызоне збіў і забіў жанчыну, якая ехала на ровары. Алгарытмы аўтамабіля не змаглі правільна ідэнтыфікаваць яе як чалавека. Эксперты раздзіраліся наконт асноўнай прычыны аварыі — аўтамабіль быў няправільна запраграмаваны і ці не стаў алгарытм занадта складаным для яго ўласнай карысці? Аднак праграмісты могуць пагадзіцца з тым, што для кампаній, якія займаюцца праграмным забеспячэннем, неабходная сістэма кантролю — этычны кодэкс. 

    Тым не менш, гэты этычны кодэкс выклікае некаторую адпор з боку буйных тэхналогій, таму што яны займаюцца продажам даных і алгарытмаў і не могуць дазволіць сабе рэгуляваць або патрабаваць празрыстасці. Акрамя таго, нядаўняя падзея, якая выклікала заклапочанасць у буйных тэхнічных супрацоўнікаў, - гэта ўсё большае выкарыстанне алгарытмаў у арміі, напрыклад, партнёрства Google з Міністэрствам абароны ЗША для ўключэння алгарытмаў у ваенныя тэхналогіі, такія як аўтаномныя беспілотнікі. Гэта дадатак прывяло да таго, што некаторыя супрацоўнікі звольніліся, а эксперты выказалі занепакоенасць тым, што алгарытмы ўсё яшчэ занадта непрадказальныя, каб выкарыстоўваць іх у якасці машын для забойства. 

    Іншая праблема заключаецца ў тым, што алгарытмы Франкена могуць увекавечыць і нават узмацніць прадузятасці з-за набораў даных, на якіх яны навучаюцца. Гэты працэс можа прывесці да розных грамадскіх праблем, уключаючы дыскрымінацыю, няроўнасць і незаконныя арышты. З-за гэтых павышаных рызык многія тэхналагічныя кампаніі пачынаюць публікаваць свае этычныя рэкамендацыі па AI, каб быць празрыстымі ў тым, як яны распрацоўваюць, выкарыстоўваюць і кантралююць свае алгарытмы.

    Больш шырокія наступствы для алгарытмаў Франкена

    Патэнцыйныя наступствы для алгарытмаў Франкена могуць уключаць:

    • Развіццё аўтаномных сістэм, якія могуць прымаць рашэнні і выконваць дзеянні без кантролю з боку чалавека, што выклікае заклапочанасць наконт адказнасці і бяспекі. Аднак такія алгарытмы могуць знізіць выдаткі на распрацоўку праграмнага забеспячэння і робататэхнікі, якія могуць аўтаматызаваць чалавечую працу ў большасці галін. 
    • Дадатковы аналіз таго, як алгарытмы могуць аўтаматызаваць ваенную тэхналогію і падтрымліваць аўтаномную зброю і транспартныя сродкі.
    • Узмацненне ціску на ўрады і лідэраў галіны з мэтай укаранення кодэкса этыкі і правілаў алгарытму.
    • Алгарытмы Франкена непрапарцыйна моцна ўплываюць на пэўныя дэмаграфічныя групы, такія як супольнасці з нізкім узроўнем даходу або меншасці.
    • Алгарытмы Франкена могуць увекавечыць і ўзмацніць дыскрымінацыю і прадузятасць пры прыняцці рашэнняў, такіх як наём і крэдытаванне.
    • Гэтыя алгарытмы выкарыстоўваюцца кіберзлачынцамі для кантролю і выкарыстання слабых месцаў у сістэмах, асабліва ў фінансавых установах.
    • Палітычныя суб'екты выкарыстоўваюць фальшывыя алгарытмы для аўтаматызацыі маркетынгавых кампаній з выкарыстаннем генератыўных сістэм штучнага інтэлекту такім чынам, каб паўплываць на грамадскую думку і паўплываць на выбары.

    Пытанні для разгляду

    • Як вы думаеце, як алгарытмы будуць развівацца ў будучыні?
    • Што могуць зрабіць урады і кампаніі, каб кантраляваць Franken-Algorithms?

    Спасылкі Insight

    Наступныя папулярныя і інстытуцыйныя спасылкі былі выкарыстаны для гэтай інфармацыі: