Automatiserte nettangrep med kunstig intelligens: Når maskiner blir nettkriminelle

BILDEKREDITT:
Bilde kreditt
iStock

Automatiserte nettangrep med kunstig intelligens: Når maskiner blir nettkriminelle

Automatiserte nettangrep med kunstig intelligens: Når maskiner blir nettkriminelle

Underoverskriftstekst
Kraften til kunstig intelligens (AI) og maskinlæring (ML) blir utnyttet av hackere for å gjøre nettangrep mer effektive og dødelige.
    • Forfatter:
    • forfatternavn
      Quantumrun Foresight
    • September 30, 2022

    Oppsummering av innsikt

    Kunstig intelligens (AI) og maskinlæring (ML) brukes i økende grad i cybersikkerhet, både for å beskytte systemer og for å utføre cyberangrep. Deres evne til å lære av data og atferd gjør dem i stand til å identifisere systemsårbarheter, men gjør det også vanskelig å spore kilden bak disse algoritmene. Dette utviklende landskapet av AI innen nettkriminalitet vekker bekymring blant IT-eksperter, krever avanserte forsvarsstrategier og kan føre til betydelige endringer i hvordan myndigheter og selskaper tilnærminger nettsikkerhet.

    Automatiserte cyberangrep ved bruk av AI-kontekst

    Kunstig intelligens og ML opprettholder muligheten til å automatisere nesten alle oppgaver, inkludert læring fra repeterende atferd og mønstre, noe som gjør et kraftig verktøy for å identifisere sårbarheter i et system. Enda viktigere, AI og ML gjør det utfordrende å finne en person eller en enhet bak en algoritme.

    I 2022, under det amerikanske Senatets væpnede tjenesters underutvalg for cybersikkerhet, omtalte Eric Horvitz, Microsofts vitenskapelige sjef, bruken av kunstig intelligens (AI) for å automatisere nettangrep som «støtende AI». Han fremhevet at det er vanskelig å avgjøre om et nettangrep er AI-drevet. På samme måte blir maskinlæring (ML) brukt for å hjelpe cyberangrep; ML brukes til å lære ofte brukte ord og strategier for å lage passord for å hacke dem bedre. 

    En undersøkelse fra cybersikkerhetsfirmaet Darktrace oppdaget at IT-ledelsesteam er i økende grad bekymret for den potensielle bruken av AI i cyberkriminalitet, med 96 prosent av respondentene som indikerte at de allerede undersøker mulige løsninger. IT-sikkerhetseksperter føler et skifte i metoder for cyberangrep fra løsepengevare og phishing til mer kompleks skadelig programvare som er vanskelig å oppdage og avlede. Mulig risiko for AI-aktivert nettkriminalitet er introduksjonen av korrupte eller manipulerte data i ML-modeller.

    Et ML-angrep kan påvirke programvare og andre teknologier som for tiden utvikles for å støtte cloud computing og edge AI. Utilstrekkelige opplæringsdata kan også forsterke algoritmeskjevheter som feilmerking av minoritetsgrupper eller påvirke prediktivt politiarbeid for å målrette marginaliserte lokalsamfunn. Kunstig intelligens kan introdusere subtil, men katastrofal informasjon i systemer, som kan ha langvarige konsekvenser.

    Forstyrrende påvirkning

    En studie fra Georgetown University-forskere om cyber-drapskjeden (en sjekkliste over oppgaver utført for å starte et vellykket cyberangrep) viste at spesifikke offensive strategier kunne dra nytte av ML. Disse metodene inkluderer spearphishing (e-postsvindel rettet mot spesifikke personer og organisasjoner), lokalisering av svakheter i IT-infrastrukturer, levering av ondsinnet kode i nettverk og unngåelse av oppdagelse av cybersikkerhetssystemer. Maskinlæring kan også øke sjansene for at sosiale ingeniørangrep lykkes, der folk blir lurt til å avsløre sensitiv informasjon eller utføre spesifikke handlinger som økonomiske transaksjoner. 

    I tillegg kan cyberkill-kjeden automatisere noen prosesser, inkludert: 

    • Omfattende overvåking - autonome skannere samler informasjon fra målnettverk, inkludert deres tilkoblede systemer, forsvar og programvareinnstillinger. 
    • Omfattende bevæpning - AI-verktøy som identifiserer svakheter i infrastruktur og lager kode for å infiltrere disse smutthullene. Denne automatiserte gjenkjenningen kan også målrettes mot spesifikke digitale økosystemer eller organisasjoner. 
    • Levering eller hacking - AI-verktøy som bruker automatisering for å utføre spearphishing og sosial ingeniørkunst for å målrette mot tusenvis av mennesker. 

    Fra og med 2023 er skriving av kompleks kode fortsatt innenfor menneskelige programmerere, men eksperter mener at det ikke vil ta lang tid før maskiner også får denne ferdigheten. DeepMinds AlphaCode er et fremtredende eksempel på slike avanserte AI-systemer. Den hjelper programmerere ved å analysere store mengder kode for å lære mønstre og generere optimaliserte kodeløsninger

    Implikasjoner av automatiserte cyberangrep ved bruk av AI

    Større implikasjoner av automatiserte nettangrep ved bruk av AI kan omfatte: 

    • Selskaper som utdyper sine cyberforsvarsbudsjetter for å utvikle avanserte cyberløsninger for å oppdage og stoppe automatiserte cyberangrep.
    • Nettkriminelle studerer ML-metoder for å lage algoritmer som i hemmelighet kan invadere bedrifts- og offentlig sektorsystemer.
    • Økte tilfeller av nettangrep som er godt orkestrert og retter seg mot flere organisasjoner samtidig.
    • Støtende AI-programvare brukt til å ta kontroll over militære våpen, maskiner og infrastrukturkommandosentraler.
    • Støtende AI-programvare som brukes til å infiltrere, modifisere eller utnytte et selskaps systemer for å ta ned offentlig og privat infrastruktur. 
    • Noen regjeringer omorganiserer potensielt det digitale forsvaret til sin innenlandske private sektor under kontroll og beskyttelse av deres respektive nasjonale cybersikkerhetsbyråer.

    Spørsmål å vurdere

    • Hva er de andre potensielle konsekvensene av AI-aktiverte nettangrep?
    • Hvordan ellers kan bedrifter forberede seg på slike angrep?

    Innsiktsreferanser

    Følgende populære og institusjonelle lenker ble referert for denne innsikten:

    Senter for sikkerhet og fremvoksende teknologi Automatisering av cyberangrep