Аўтаматызаваныя кібератакі з выкарыстаннем штучнага інтэлекту: калі машыны становяцца кіберзлачынцамі

КРЭДЫТ ВЫЯВЫ:
Крэдыт малюнка
Istock

Аўтаматызаваныя кібератакі з выкарыстаннем штучнага інтэлекту: калі машыны становяцца кіберзлачынцамі

Аўтаматызаваныя кібератакі з выкарыстаннем штучнага інтэлекту: калі машыны становяцца кіберзлачынцамі

Тэкст падзагалоўка
Магутнасць штучнага інтэлекту (AI) і машыннага навучання (ML) выкарыстоўваецца хакерамі, каб зрабіць кібератакі больш эфектыўнымі і смяротнымі.
    • аўтар:
    • імя аўтара
      Quantumrun Foresight
    • Верасень 30, 2022

    Кароткі агляд

    Штучны інтэлект (AI) і машыннае навучанне (ML) усё часцей выкарыстоўваюцца ў галіне кібербяспекі як для абароны сістэм, так і для выканання кібератак. Іх здольнасць вучыцца на дадзеных і паводзінах дазваляе ім выяўляць уразлівасці сістэмы, але таксама ўскладняе пошук крыніцы гэтых алгарытмаў. Такі змяняючы ландшафт штучнага інтэлекту ў кіберзлачыннасці выклікае заклапочанасць сярод ІТ-экспертаў, патрабуе перадавых стратэгій абароны і можа прывесці да істотных змен у тым, як урады і кампаніі падыходзяць да кібербяспекі.

    Аўтаматызаваныя кібератакі з выкарыстаннем кантэксту штучнага інтэлекту

    Штучны інтэлект і ML захоўваюць здольнасць аўтаматызаваць амаль усе задачы, у тым ліку навучанне на паўтаральных паводзінах і шаблонах, што робіць іх магутным інструментам для выяўлення слабых месцаў у сістэме. Што яшчэ больш важна, штучны інтэлект і машынабудаванне ўскладняюць дакладнае вызначэнне асобы або арганізацыі, якая стаіць за алгарытмам.

    У 2022 годзе падчас пасяджэння падкамітэта ўзброеных сіл Сената ЗША па кібербяспецы Эрык Горвіц, галоўны навуковы супрацоўнік Microsoft, назваў выкарыстанне штучнага інтэлекту (ШІ) для аўтаматызацыі кібератак «абразлівым ШІ». Ён падкрэсліў, што цяжка вызначыць, ці кіруецца кібератака штучным інтэлектам. Падобным чынам машыннае навучанне (ML) выкарыстоўваецца для дапамогі ў кібератаках; ML выкарыстоўваецца для вывучэння часта выкарыстоўваюцца слоў і стратэгій пры стварэнні пароляў, каб лепш іх узломваць. 

    Апытанне, праведзенае кампаніяй па кібербяспецы Darktrace, паказала, што каманды кіравання ІТ усё больш занепакоеныя магчымым выкарыстаннем штучнага інтэлекту ў кіберзлачынствах, прычым 96 працэнтаў рэспандэнтаў паказалі, што яны ўжо шукаюць магчымыя рашэнні. Эксперты па ІТ-бяспецы адчуваюць зрух у метадах кібератак ад праграм-вымагальнікаў і фішынгу да больш складаных шкоднасных праграм, якія цяжка выявіць і адхіліць. Магчымая небяспека кіберзлачынстваў з падтрымкай штучнага інтэлекту - гэта ўвядзенне пашкоджаных або маніпуляваных даных у мадэлі ML.

    Атака ML можа паўплываць на праграмнае забеспячэнне і іншыя тэхналогіі, якія зараз распрацоўваюцца для падтрымкі хмарных вылічэнняў і краявога штучнага інтэлекту. Недастатковая інфармацыя аб навучанні можа таксама ўзмацніць зрушэнні алгарытму, такія як няправільнае пазначэнне груп меншасцей або паўплываць на прагназавальны паліцэйскі кантроль, арыентаваны на маргіналізаваныя супольнасці. Штучны інтэлект можа ўводзіць у сістэмы тонкую, але катастрафічную інфармацыю, што можа мець доўгатэрміновыя наступствы.

    Разбуральнае ўздзеянне

    Даследаванне, праведзенае даследчыкамі Джорджтаўнскага ўніверсітэта па ланцужку кіберзабойстваў (кантрольны спіс задач, якія выконваюцца для паспяховай кібератакі), паказала, што ML можа прынесці карысць пэўным наступальным стратэгіям. Гэтыя метады ўключаюць падводны фішынг (махлярства па электроннай пошце, накіраванае на пэўных людзей і арганізацыі), выяўленне слабых месцаў у ІТ-інфраструктуры, дастаўку шкоднаснага кода ў сеткі і пазбяганне выяўлення сістэмамі кібербяспекі. Машыннае навучанне таксама можа павялічыць шанцы на поспех атак сацыяльнай інжынерыі, калі людзей падманам прымушаюць раскрыць канфідэнцыйную інфармацыю або выканаць пэўныя дзеянні, напрыклад фінансавыя аперацыі. 

    Акрамя таго, ланцужок кіберзабойстваў можа аўтаматызаваць некаторыя працэсы, у тым ліку: 

    • Шырокае назіранне - аўтаномныя сканеры збіраюць інфармацыю з мэтавых сетак, уключаючы іх падлучаныя сістэмы, абарону і налады праграмнага забеспячэння. 
    • Шырокая ўзброенасць - інструменты штучнага інтэлекту, якія выяўляюць слабыя месцы ў інфраструктуры і ствараюць код для пранікнення ў гэтыя шчыліны. Гэта аўтаматызаванае выяўленне таксама можа быць накіравана на пэўныя лічбавыя экасістэмы або арганізацыі. 
    • Дастаўка або ўзлом - інструменты штучнага інтэлекту, якія выкарыстоўваюць аўтаматызацыю для падводнага фішынгу і сацыяльнай інжынерыі для тысяч людзей. 

    Па стане на 2023 год напісанне складанага кода па-ранейшаму ўваходзіць у сферу дзейнасці праграмістаў-людзей, але эксперты мяркуюць, што не пройдзе шмат часу, перш чым машыны таксама набудуць гэты навык. AlphaCode DeepMind з'яўляецца яркім прыкладам такіх перадавых сістэм штучнага інтэлекту. Гэта дапамагае праграмістам, аналізуючы вялікія аб'ёмы кода для вывучэння шаблонаў і стварэння аптымізаваных кодавых рашэнняў​

    Наступствы аўтаматызаваных кібератак з выкарыстаннем штучнага інтэлекту

    Больш шырокія наступствы аўтаматызаваных кібератак з выкарыстаннем штучнага інтэлекту могуць уключаць: 

    • Кампаніі павялічваюць свае бюджэты на кіберабарону для распрацоўкі перадавых кіберрашэнняў для выяўлення і спынення аўтаматызаваных кібератак.
    • Кіберзлачынцы вывучаюць метады ML для стварэння алгарытмаў, якія могуць таемна ўрывацца ў карпаратыўныя і дзяржаўныя сістэмы.
    • Павелічэнне выпадкаў кібератак, якія добра арганізаваны і нацэлены на некалькі арганізацый адначасова.
    • Наступальнае праграмнае забеспячэнне AI, якое выкарыстоўваецца для захопу кантролю над ваеннай зброяй, машынамі і каманднымі цэнтрамі інфраструктуры.
    • Абразлівае праграмнае забеспячэнне штучнага інтэлекту, якое выкарыстоўваецца для пранікнення, мадыфікацыі або выкарыстання сістэм кампаніі для ліквідацыі дзяржаўнай і прыватнай інфраструктуры. 
    • Некаторыя ўрады патэнцыйна рэарганізуюць лічбавую абарону свайго ўнутранага прыватнага сектара пад кантролем і абаронай адпаведных нацыянальных агенцтваў кібербяспекі.

    Пытанні для разгляду

    • Якія іншыя магчымыя наступствы кібератак з падтрымкай штучнага інтэлекту?
    • Як яшчэ кампаніі могуць падрыхтавацца да такіх нападаў?

    Спасылкі Insight

    Наступныя папулярныя і інстытуцыйныя спасылкі былі выкарыстаны для гэтай інфармацыі:

    Цэнтр бяспекі і новых тэхналогій Аўтаматызацыя кібератак