Ավտոմատացված կիբերհարձակումներ՝ օգտագործելով AI. Երբ մեքենաները դառնում են կիբերհանցագործներ

ՊԱՏԿԵՐԻ ՎԱՐԿ.
Image վարկային
iStock- ը

Ավտոմատացված կիբերհարձակումներ՝ օգտագործելով AI. Երբ մեքենաները դառնում են կիբերհանցագործներ

Ավտոմատացված կիբերհարձակումներ՝ օգտագործելով AI. Երբ մեքենաները դառնում են կիբերհանցագործներ

Ենթավերնագրի տեքստը
Արհեստական ​​ինտելեկտի (AI) և մեքենայական ուսուցման (ML) ուժը շահագործվում է հաքերների կողմից՝ կիբերհարձակումները ավելի արդյունավետ և մահաբեր դարձնելու համար:
    • Հեղինակ:
    • Հեղինակ անունը
      Quantumrun Հեռատեսություն
    • Սեպտեմբեր 30, 2022

    Insight ամփոփում

    Արհեստական ​​ինտելեկտը (AI) և մեքենայական ուսուցումը (ML) ավելի ու ավելի են օգտագործվում կիբերանվտանգության մեջ՝ ինչպես համակարգերը պաշտպանելու, այնպես էլ կիբերհարձակումներ իրականացնելու համար: Տվյալներից և վարքագծից սովորելու նրանց կարողությունը նրանց հնարավորություն է տալիս բացահայտել համակարգի խոցելիությունները, բայց նաև դժվարացնում է այս ալգորիթմների հետևում գտնվող աղբյուրի որոնումը: Կիբերհանցագործության ոլորտում AI-ի այս զարգացող լանդշաֆտը մտահոգություններ է առաջացնում ՏՏ փորձագետների շրջանում, պահանջում է առաջադեմ պաշտպանական ռազմավարություններ և կարող է հանգեցնել զգալի փոփոխությունների, թե ինչպես են կառավարությունները և ընկերությունները մոտենում կիբերանվտանգությանը:

    Ավտոմատացված կիբերհարձակումներ՝ օգտագործելով AI համատեքստը

    Արհեստական ​​ինտելեկտը և ML-ը պահպանում են գրեթե բոլոր առաջադրանքները ավտոմատացնելու ունակությունը, ներառյալ կրկնվող վարքագծից և օրինաչափություններից սովորելը, հզոր գործիք դարձնելով համակարգի խոցելիությունը: Ավելի կարևոր է, որ AI-ն և ML-ն դժվարացնում են ալգորիթմի հետևում գտնվող անձին կամ կազմակերպությանը մատնանշելը:

    2022 թվականին, ԱՄՆ Սենատի կիբերանվտանգության հարցերով զինված ծառայությունների ենթահանձնաժողովի ժամանակ, Microsoft-ի գլխավոր գիտաշխատող Էրիկ Հորվիցը կիբերհարձակումների ավտոմատացման համար արհեստական ​​ինտելեկտի (AI) կիրառմանն անվանեց «վիրավորական AI»: Նա ընդգծեց, որ դժվար է որոշել, թե արդյոք կիբերհարձակումը պայմանավորված է AI-ով: Նմանապես, մեքենայական ուսուցումը (ML) օգտագործվում է կիբերհարձակումներին օգնելու համար. ML-ն օգտագործվում է սովորելու սովորաբար օգտագործվող բառերն ու ռազմավարությունները գաղտնաբառեր ստեղծելու համար՝ դրանք ավելի լավ կոտրելու համար: 

    Կիբերանվտանգության Darktrace ընկերության կողմից անցկացված հարցումը պարզել է, որ ՏՏ կառավարման թիմերն ավելի ու ավելի են մտահոգված կիբերհանցագործություններում AI-ի հնարավոր կիրառմամբ, հարցվածների 96 տոկոսը նշել է, որ իրենք արդեն ուսումնասիրում են հնարավոր լուծումները: ՏՏ անվտանգության փորձագետները զգում են կիբերհարձակման մեթոդների փոփոխություն փրկագինից և ֆիշինգից դեպի ավելի բարդ չարամիտ ծրագրեր, որոնք դժվար է հայտնաբերել և շեղել: AI-ով միացված կիբերհանցագործության հնարավոր վտանգը ML մոդելներում կոռումպացված կամ մանիպուլյացիայի ենթարկված տվյալների ներմուծումն է:

    ML հարձակումը կարող է ազդել ծրագրային ապահովման և այլ տեխնոլոգիաների վրա, որոնք ներկայումս մշակվում են՝ աջակցելու ամպային հաշվարկին և ծայրամասային AI-ին: Անբավարար ուսուցման տվյալները կարող են նաև վերահաստատել ալգորիթմի շեղումները, ինչպիսիք են փոքրամասնությունների խմբերի սխալ պիտակավորումը կամ կանխատեսող ոստիկանության վրա ազդելը մարգինալացված համայնքներին թիրախավորելու համար: Արհեստական ​​ինտելեկտը կարող է համակարգեր ներմուծել նուրբ, բայց աղետալի տեղեկատվություն, որը կարող է երկարատև հետևանքներ ունենալ:

    Խանգարող ազդեցություն

    Ջորջթաունի համալսարանի հետազոտողների կողմից կիբեր սպանությունների շղթայի ուսումնասիրությունը (հաջող կիբերհարձակում իրականացնելու համար կատարված առաջադրանքների ստուգաթերթ) ցույց տվեց, որ հատուկ հարձակողական ռազմավարությունները կարող են օգուտ քաղել ՄԼ-ից: Այս մեթոդները ներառում են նիզակային ֆիշինգը (էլեկտրոնային փոստի խարդախություններ, որոնք ուղղված են կոնկրետ մարդկանց և կազմակերպություններին), ՏՏ ենթակառուցվածքների թերությունների հայտնաբերումը, չարամիտ կոդերի փոխանցումը ցանցեր և կիբերանվտանգության համակարգերի կողմից հայտնաբերելուց խուսափելը: Մեքենայական ուսուցումը կարող է նաև մեծացնել սոցիալական ինժեներական հարձակումների հաջողության հավանականությունը, որտեղ մարդիկ խաբվում են՝ բացահայտելով զգայուն տեղեկատվություն կամ կատարել որոշակի գործողություններ, ինչպիսիք են ֆինանսական գործարքները: 

    Բացի այդ, կիբեր սպանությունների շղթան կարող է ավտոմատացնել որոշ գործընթացներ, այդ թվում՝ 

    • Ընդարձակ հսկողություն - ինքնավար սկաներներ, որոնք տեղեկատվություն են հավաքում թիրախային ցանցերից, ներառյալ դրանց միացված համակարգերը, պաշտպանիչ սարքերը և ծրագրային ապահովման կարգավորումները: 
    • Հսկայական սպառազինություն. AI գործիքներ, որոնք բացահայտում են ենթակառուցվածքի թույլ կողմերը և ստեղծում կոդ՝ այս բացերը ներթափանցելու համար: Այս ավտոմատ հայտնաբերումը կարող է նաև թիրախավորել որոշակի թվային էկոհամակարգեր կամ կազմակերպություններ: 
    • Առաքում կամ կոտրում. AI գործիքներ, որոնք օգտագործում են ավտոմատացում՝ նիզակային ֆիշինգը և սոցիալական ճարտարագիտությունը հազարավոր մարդկանց թիրախավորելու համար: 

    2023 թվականի դրությամբ բարդ կոդ գրելը դեռևս գտնվում է մարդկային ծրագրավորողների տիրույթում, սակայն փորձագետները կարծում են, որ շատ ժամանակ չի անցնի, երբ մեքենաները նույնպես ձեռք կբերեն այս հմտությունը: DeepMind's AlphaCode-ը նման զարգացած AI համակարգերի վառ օրինակ է: Այն օգնում է ծրագրավորողներին՝ վերլուծելով մեծ քանակությամբ կոդ՝ օրինաչափություններ սովորելու և կոդերի օպտիմիզացված լուծումներ ստեղծելու համար։

    AI-ի օգտագործմամբ ավտոմատացված կիբերհարձակումների հետևանքները

    AI-ի օգտագործմամբ ավտոմատացված կիբերհարձակումների ավելի լայն հետևանքները կարող են ներառել. 

    • Ընկերությունները խորացնում են իրենց կիբեր պաշտպանության բյուջեն՝ զարգացնելու առաջադեմ կիբեր լուծումներ՝ ավտոմատացված կիբերհարձակումները հայտնաբերելու և դադարեցնելու համար:
    • Կիբերհանցագործներն ուսումնասիրում են ML մեթոդները՝ ստեղծելու ալգորիթմներ, որոնք կարող են գաղտնի ներխուժել կորպորատիվ և հանրային հատվածի համակարգեր:
    • Կիբերհարձակումների դեպքերի ավելացում, որոնք լավ կազմակերպված են և ուղղված են միանգամից մի քանի կազմակերպությունների:
    • Հարձակողական AI ծրագրակազմ, որն օգտագործվում է ռազմական զենքերի, մեքենաների և ենթակառուցվածքի հրամանատարական կենտրոնների վերահսկողությունը գրավելու համար:
    • Վիրավորական AI ծրագրակազմ, որն օգտագործվում է ընկերության համակարգեր ներթափանցելու, փոփոխելու կամ շահագործելու համար՝ պետական ​​և մասնավոր ենթակառուցվածքները ոչնչացնելու համար: 
    • Որոշ կառավարություններ կարող են վերակազմավորել իրենց ներքին մասնավոր հատվածի թվային պաշտպանությունը՝ կիբերանվտանգության իրենց համապատասխան ազգային գործակալությունների վերահսկողության և պաշտպանության ներքո:

    Հարցեր, որոնք պետք է հաշվի առնել

    • Որո՞նք են արհեստական ​​ինտելեկտի վրա աշխատող կիբերհարձակումների այլ հնարավոր հետևանքները:
    • Ուրիշ ինչպե՞ս կարող են ընկերությունները պատրաստվել նման հարձակումներին:

    Insight հղումներ

    Հետևյալ հանրաճանաչ և ինստիտուցիոնալ հղումները վկայակոչվել են այս պատկերացման համար.

    Անվտանգության և զարգացող տեխնոլոգիաների կենտրոն Կիբեր հարձակումների ավտոմատացում