Automatizēti kiberuzbrukumi, izmantojot AI: kad mašīnas kļūst par kibernoziedzniekiem

ATTĒLA KREDĪTS:
Attēls kredīts
iStock

Automatizēti kiberuzbrukumi, izmantojot AI: kad mašīnas kļūst par kibernoziedzniekiem

Automatizēti kiberuzbrukumi, izmantojot AI: kad mašīnas kļūst par kibernoziedzniekiem

Apakšvirsraksta teksts
Hakeri izmanto mākslīgā intelekta (AI) un mašīnmācīšanās (ML) spēku, lai padarītu kiberuzbrukumus efektīvākus un letālākus.
    • Autors:
    • Autors nosaukums
      Quantumrun Foresight
    • Septembris 30, 2022

    Izlikt tekstu

    Mākslīgais intelekts (AI) un mašīnmācīšanās (ML) saglabā spēju automatizēt gandrīz visus uzdevumus, tostarp mācīšanos no atkārtotas uzvedības un modeļiem, padarot to par spēcīgu rīku, lai identificētu sistēmas ievainojamības. Vēl svarīgāk ir tas, ka mākslīgais intelekts un ML apgrūtina personas vai subjekta noteikšanu aiz algoritma.

    Automatizēti kiberuzbrukumi, izmantojot AI kontekstu

    2022. gadā ASV Senāta Bruņoto dienestu Kiberdrošības apakškomitejas laikā Ēriks Horvics, Microsoft galvenais zinātniskais darbinieks, minēja mākslīgā intelekta (AI) izmantošanu kiberuzbrukumu automatizēšanai kā “aizvainojošu AI”. Uzsverot, ka ir grūti noteikt, vai kiberuzbrukums ir AI vadīts. Tāpat mašīnmācība (ML) tiek izmantota, lai palīdzētu kiberuzbrukumos; ML tiek izmantots, lai apgūtu bieži lietotus vārdus un stratēģijas paroļu izveidē, lai tās labāk uzlauztu. 

    Kiberdrošības firmas Darktrace veiktajā aptaujā atklājās, ka IT vadības komandas arvien vairāk uztraucas par iespējamo mākslīgā intelekta izmantošanu kibernoziegumos, un 96 procenti respondentu norādīja, ka viņi jau pēta iespējamos risinājumus. 

    IT drošības eksperti jūt, ka kiberuzbrukumu metodes ir mainījušās no izspiedējvīrusa un pikšķerēšanas uz sarežģītāku ļaunprātīgu programmatūru, kuru ir grūti atklāt un novērst. Iespējamais ar AI iespējotu kibernoziegumu risks ir bojātu vai manipulētu datu ieviešana ML modeļos. ML uzbrukums var ietekmēt programmatūru un citas tehnoloģijas, kas pašlaik tiek izstrādātas, lai atbalstītu mākoņdatošanu un malas AI. Nepietiekami apmācības dati var arī pastiprināt algoritmu novirzes, piemēram, nepareizu mazākumtautību grupu marķēšanu vai prognozējamās policijas ietekmēšanu, lai mērķētu uz marginalizētām kopienām. Mākslīgais intelekts var sistēmās ieviest smalku, bet postošu informāciju, kam var būt ilgstošas ​​sekas.

    Traucējoša ietekme

    Džordžtaunas universitātes pētnieku veiktais pētījums par kibernogalināšanas ķēdi (veiksmīga kiberuzbrukuma uzsākšanai veikto uzdevumu kontrolsaraksts) parādīja, ka ML varētu gūt labumu konkrētām aizskarošām stratēģijām. Šīs metodes ietver slepenu pikšķerēšanu (e-pasta izkrāpšanu, kas vērsta pret konkrētiem cilvēkiem un organizācijām), IT infrastruktūras trūkumu noteikšanu, ļaunprātīga koda nogādāšanu tīklos un izvairīšanos no kiberdrošības sistēmu atklāšanas. Mašīnmācība var arī palielināt sociālās inženierijas uzbrukumu veiksmīgas izredzes, kad cilvēki tiek maldināti, atklājot sensitīvu informāciju vai veicot noteiktas darbības, piemēram, finanšu darījumus. 

    Turklāt kibernogalināšanas ķēde var automatizēt dažus procesus, tostarp: 

    • Plaša uzraudzība – autonomi skeneri, kas apkopo informāciju no mērķa tīkliem, tostarp to savienotajām sistēmām, aizsardzības līdzekļiem un programmatūras iestatījumiem. 
    • Plaša ieroču izmantošana — mākslīgā intelekta rīki, kas identificē infrastruktūras nepilnības un izveido kodu, lai iefiltrētos šajās nepilnībās. Šī automatizētā noteikšana var būt vērsta arī uz konkrētām digitālajām ekosistēmām vai organizācijām. 
    • Piegāde vai uzlaušana — mākslīgā intelekta rīki, kas izmanto automatizāciju, lai veiktu slepenu pikšķerēšanu un sociālo inženieriju, lai mērķētu uz tūkstošiem cilvēku. 

    No 2022. gada sarežģīta koda rakstīšana joprojām ir programmētāju kompetencē, taču eksperti uzskata, ka nepaies ilgs laiks, kad arī mašīnas apgūs šo prasmi. 

    Automatizētu kiberuzbrukumu, izmantojot AI, sekas

    Plašākas sekas automatizētiem kiberuzbrukumiem, izmantojot AI, var ietvert: 

    • Uzņēmumi, kas padziļina savus kiberaizsardzības budžetus, lai izstrādātu progresīvus kiberrisinājumus automatizētu kiberuzbrukumu atklāšanai un apturēšanai.
    • Kibernoziedznieki, kas pēta ML metodes, lai izveidotu algoritmus, kas var slepeni iebrukt korporatīvajās un publiskā sektora sistēmās.
    • Palielināts kiberuzbrukumu gadījumu skaits, kas ir labi organizēti un ir vērsti pret vairākām organizācijām vienlaikus.
    • Aizskaroša AI programmatūra, ko izmanto, lai pārņemtu kontroli pār militārajiem ieročiem, mašīnām un infrastruktūras vadības centriem.
    • Aizskaroša AI programmatūra, ko izmanto, lai iefiltrētos, pārveidotu vai izmantotu uzņēmuma sistēmas, lai likvidētu publisko un privāto infrastruktūru. 
    • Dažas valdības, iespējams, reorganizē sava vietējā privātā sektora digitālo aizsardzību, ko kontrolē un aizsargā attiecīgās valsts kiberdrošības aģentūras.

    Jautājumi komentēšanai

    • Kādas ir citas iespējamās AI iespējotu kiberuzbrukumu sekas?
    • Kā citādi uzņēmumi var sagatavoties šādiem uzbrukumiem?

    Ieskata atsauces

    Šim ieskatam tika izmantotas šādas populāras un institucionālas saites:

    Drošības un jauno tehnoloģiju centrs Kiberuzbrukumu automatizācija