Automatizēti kiberuzbrukumi, izmantojot AI: kad mašīnas kļūst par kibernoziedzniekiem

ATTĒLA KREDĪTS:
Attēls kredīts
iStock

Automatizēti kiberuzbrukumi, izmantojot AI: kad mašīnas kļūst par kibernoziedzniekiem

Automatizēti kiberuzbrukumi, izmantojot AI: kad mašīnas kļūst par kibernoziedzniekiem

Apakšvirsraksta teksts
Hakeri izmanto mākslīgā intelekta (AI) un mašīnmācīšanās (ML) spēku, lai padarītu kiberuzbrukumus efektīvākus un letālākus.
    • Autors:
    • Autors nosaukums
      Quantumrun Foresight
    • Septembris 30, 2022

    Ieskata kopsavilkums

    Mākslīgais intelekts (AI) un mašīnmācīšanās (ML) arvien vairāk tiek izmantoti kiberdrošībā gan sistēmu aizsardzībai, gan kiberuzbrukumu veikšanai. Viņu spēja mācīties no datiem un uzvedības ļauj tiem identificēt sistēmas ievainojamības, taču arī apgrūtina šo algoritmu avota izsekošanu. Šī AI ainava, kas attīstās kibernoziedzības jomā, rada bažas IT ekspertu vidū, prasa uzlabotas aizsardzības stratēģijas un var izraisīt būtiskas izmaiņas valdību un uzņēmumu pieejā kiberdrošībai.

    Automatizēti kiberuzbrukumi, izmantojot AI kontekstu

    Mākslīgais intelekts un ML saglabā spēju automatizēt gandrīz visus uzdevumus, tostarp mācīšanos no atkārtotas uzvedības un modeļiem, padarot par spēcīgu rīku sistēmas ievainojamību identificēšanai. Vēl svarīgāk ir tas, ka mākslīgais intelekts un ML apgrūtina personas vai subjekta noteikšanu aiz algoritma.

    2022. gadā ASV Senāta Bruņoto dienestu Kiberdrošības apakškomitejas laikā Ēriks Horvics, Microsoft galvenais zinātniskais darbinieks, mākslīgā intelekta (AI) izmantošanu kiberuzbrukumu automatizēšanai nosauca par “aizvainojošu AI”. Viņš uzsvēra, ka ir grūti noteikt, vai kiberuzbrukums ir AI vadīts. Tāpat mašīnmācība (ML) tiek izmantota, lai palīdzētu kiberuzbrukumos; ML tiek izmantots, lai apgūtu bieži lietotus vārdus un stratēģijas paroļu izveidē, lai tās labāk uzlauztu. 

    Kiberdrošības uzņēmuma Darktrace aptaujā atklājās, ka IT vadības komandas arvien vairāk uztraucas par AI iespējamo izmantošanu kibernoziegumos, un 96 procenti respondentu norādīja, ka viņi jau pēta iespējamos risinājumus. IT drošības eksperti jūt, ka kiberuzbrukuma metodes ir mainījušās no izspiedējvīrusa un pikšķerēšanas uz sarežģītāku ļaunprātīgu programmatūru, kuru ir grūti atklāt un novērst. Iespējamais ar AI iespējotu kibernoziegumu risks ir bojātu vai manipulētu datu ieviešana ML modeļos.

    ML uzbrukums var ietekmēt programmatūru un citas tehnoloģijas, kas pašlaik tiek izstrādātas, lai atbalstītu mākoņdatošanu un malas AI. Nepietiekami apmācības dati var arī pastiprināt algoritmu novirzes, piemēram, nepareizu minoritāšu grupu marķēšanu vai prognozējamās policijas ietekmēšanu, lai mērķētu uz marginalizētām kopienām. Mākslīgais intelekts var sistēmās ieviest smalku, bet postošu informāciju, kam var būt ilgstošas ​​sekas.

    Traucējoša ietekme

    Džordžtaunas universitātes pētnieku veiktais pētījums par kibernogalināšanas ķēdi (veiksmīga kiberuzbrukuma uzsākšanai veikto uzdevumu kontrolsaraksts) parādīja, ka ML varētu gūt labumu konkrētām aizskarošām stratēģijām. Šīs metodes ietver slepenu pikšķerēšanu (e-pasta izkrāpšanu, kas vērsta pret konkrētiem cilvēkiem un organizācijām), IT infrastruktūras trūkumu noteikšanu, ļaunprātīga koda nogādāšanu tīklos un izvairīšanos no kiberdrošības sistēmu atklāšanas. Mašīnmācība var arī palielināt sociālās inženierijas uzbrukumu veiksmīgas izredzes, kad cilvēki tiek maldināti, atklājot sensitīvu informāciju vai veicot noteiktas darbības, piemēram, finanšu darījumus. 

    Turklāt kibernogalināšanas ķēde var automatizēt dažus procesus, tostarp: 

    • Plaša uzraudzība – autonomi skeneri, kas apkopo informāciju no mērķa tīkliem, tostarp to savienotajām sistēmām, aizsardzības līdzekļiem un programmatūras iestatījumiem. 
    • Plaša ieroču izmantošana — mākslīgā intelekta rīki, kas identificē infrastruktūras nepilnības un izveido kodu, lai iefiltrētos šajās nepilnībās. Šī automatizētā noteikšana var būt vērsta arī uz konkrētām digitālajām ekosistēmām vai organizācijām. 
    • Piegāde vai uzlaušana — mākslīgā intelekta rīki, kas izmanto automatizāciju, lai veiktu slepenu pikšķerēšanu un sociālo inženieriju, lai mērķētu uz tūkstošiem cilvēku. 

    No 2023. gada sarežģīta koda rakstīšana joprojām ir programmētāju kompetencē, taču eksperti uzskata, ka nepaies ilgs laiks, kad arī mašīnas apgūs šo prasmi. DeepMind AlphaCode ir izcils šādu progresīvu AI sistēmu piemērs. Tas palīdz programmētājiem, analizējot lielu daudzumu koda, lai apgūtu modeļus un ģenerētu optimizētus koda risinājumus

    Automatizētu kiberuzbrukumu, izmantojot AI, sekas

    Plašākas sekas automatizētiem kiberuzbrukumiem, izmantojot AI, var ietvert: 

    • Uzņēmumi, kas padziļina savus kiberaizsardzības budžetus, lai izstrādātu progresīvus kiberrisinājumus automatizētu kiberuzbrukumu atklāšanai un apturēšanai.
    • Kibernoziedznieki, kas pēta ML metodes, lai izveidotu algoritmus, kas var slepeni iebrukt korporatīvajās un publiskā sektora sistēmās.
    • Palielināts kiberuzbrukumu gadījumu skaits, kas ir labi organizēti un ir vērsti pret vairākām organizācijām vienlaikus.
    • Aizskaroša AI programmatūra, ko izmanto, lai pārņemtu kontroli pār militārajiem ieročiem, mašīnām un infrastruktūras vadības centriem.
    • Aizskaroša AI programmatūra, ko izmanto, lai iefiltrētos, pārveidotu vai izmantotu uzņēmuma sistēmas, lai likvidētu publisko un privāto infrastruktūru. 
    • Dažas valdības, iespējams, reorganizē sava vietējā privātā sektora digitālo aizsardzību, ko kontrolē un aizsargā attiecīgās valsts kiberdrošības aģentūras.

    Jautājumi, kas jāapsver

    • Kādas ir citas iespējamās AI iespējotu kiberuzbrukumu sekas?
    • Kā citādi uzņēmumi var sagatavoties šādiem uzbrukumiem?

    Ieskata atsauces

    Šim ieskatam tika izmantotas šādas populāras un institucionālas saites:

    Drošības un jauno tehnoloģiju centrs Kiberuzbrukumu automatizācija