Automatiserade cyberattacker med AI: När maskiner blir cyberkriminella

BILDKREDIT:
Bild kredit
iStock

Automatiserade cyberattacker med AI: När maskiner blir cyberkriminella

Automatiserade cyberattacker med AI: När maskiner blir cyberkriminella

Underrubrik text
Kraften i artificiell intelligens (AI) och maskininlärning (ML) utnyttjas av hackare för att göra cyberattacker mer effektiva och dödliga.
    • Författare:
    • författarnamn
      Quantumrun Framsyn
    • September 30, 2022

    Insiktssammanfattning

    Artificiell intelligens (AI) och maskininlärning (ML) används i allt större utsträckning inom cybersäkerhet, både för att skydda system och för att utföra cyberattacker. Deras förmåga att lära av data och beteenden gör det möjligt för dem att identifiera systemsårbarheter, men gör det också svårt att spåra källan bakom dessa algoritmer. Detta utvecklande landskap av AI inom cyberbrottslighet väcker oro bland IT-experter, kräver avancerade försvarsstrategier och kan leda till betydande förändringar i hur regeringar och företag närmar sig cybersäkerhet.

    Automatiserade cyberattacker med hjälp av AI-kontext

    Artificiell intelligens och ML bibehåller förmågan att automatisera nästan alla uppgifter, inklusive att lära sig från repetitiva beteenden och mönster, vilket gör ett kraftfullt verktyg för att identifiera sårbarheter i ett system. Ännu viktigare, AI och ML gör det utmanande att peka ut en person eller entitet bakom en algoritm.

    År 2022, under US Senaten Armed Services Subcommittee on Cybersecurity, hänvisade Eric Horvitz, Microsofts chief scientific officer, till användningen av artificiell intelligens (AI) för att automatisera cyberattacker som "offensiv AI". Han betonade att det är svårt att avgöra om en cyberattack är AI-driven. På samma sätt används maskininlärning (ML) för att hjälpa cyberattacker; ML används för att lära sig vanliga ord och strategier för att skapa lösenord för att hacka dem bättre. 

    En undersökning av cybersäkerhetsföretaget Darktrace upptäckte att IT-ledningsteam är allt mer oroade över den potentiella användningen av AI vid cyberbrott, där 96 procent av de tillfrågade angav att de redan undersöker möjliga lösningar. IT-säkerhetsexperter känner ett skifte i metoder för cyberattack från ransomware och nätfiske till mer komplexa skadliga program som är svåra att upptäcka och avleda. Möjlig risk för AI-aktiverad cyberbrottslighet är införandet av korrupta eller manipulerade data i ML-modeller.

    En ML-attack kan påverka programvara och andra tekniker som för närvarande utvecklas för att stödja cloud computing och edge AI. Otillräckliga utbildningsdata kan också förstärka algoritmfördomar som att felaktigt tagga minoritetsgrupper eller påverka förutsägande polisarbete för att rikta in sig på marginaliserade samhällen. Artificiell intelligens kan introducera subtil men katastrofal information i system, vilket kan få långvariga konsekvenser.

    Störande inverkan

    En studie av forskare vid Georgetown University om cyberdödskedjan (en checklista över uppgifter som utförts för att starta en framgångsrik cyberattack) visade att specifika offensiva strategier skulle kunna dra nytta av ML. Dessa metoder inkluderar spearphishing (e-postbedrägerier riktade mot specifika personer och organisationer), lokalisering av svagheter i IT-infrastrukturer, leverans av skadlig kod till nätverk och undvikande av upptäckt av cybersäkerhetssystem. Maskininlärning kan också öka chanserna för att sociala ingenjörsattacker ska lyckas, där människor luras att avslöja känslig information eller utföra specifika åtgärder som finansiella transaktioner. 

    Dessutom kan cyberdödskedjan automatisera vissa processer, inklusive: 

    • Omfattande övervakning - autonoma skannrar som samlar information från målnätverk, inklusive deras anslutna system, försvar och mjukvaruinställningar. 
    • Enorma vapenisering - AI-verktyg som identifierar svagheter i infrastrukturen och skapar kod för att infiltrera dessa kryphål. Denna automatiska upptäckt kan också rikta in sig på specifika digitala ekosystem eller organisationer. 
    • Leverans eller hackning - AI-verktyg som använder automatisering för att utföra spearphishing och social ingenjörskonst för att rikta in sig på tusentals människor. 

    Från och med 2023 är att skriva komplex kod fortfarande inom mänskliga programmerares område, men experter tror att det inte kommer att dröja länge innan maskiner också skaffar sig denna färdighet. DeepMinds AlphaCode är ett framträdande exempel på sådana avancerade AI-system. Det hjälper programmerare genom att analysera stora mängder kod för att lära sig mönster och generera optimerade kodlösningar

    Implikationer av automatiserade cyberattacker med AI

    Vidare konsekvenser av automatiserade cyberattacker med AI kan inkludera: 

    • Företag som fördjupar sina cyberförsvarsbudgetar för att utveckla avancerade cyberlösningar för att upptäcka och stoppa automatiserade cyberattacker.
    • Cyberkriminella studerar ML-metoder för att skapa algoritmer som i hemlighet kan invadera företags- och offentliga system.
    • Ökade incidenter av cyberattacker som är välorganiserade och riktar sig till flera organisationer samtidigt.
    • Offensiv AI-programvara som används för att ta kontroll över militära vapen, maskiner och infrastrukturledningscentraler.
    • Stötande AI-programvara som används för att infiltrera, modifiera eller utnyttja ett företags system för att ta ner offentlig och privat infrastruktur. 
    • Vissa regeringar omorganiserar potentiellt det digitala försvaret av sin inhemska privata sektor under kontroll och skydd av sina respektive nationella cybersäkerhetsbyråer.

    Frågor att överväga

    • Vilka är de andra potentiella konsekvenserna av AI-aktiverade cyberattacker?
    • Hur kan företag annars förbereda sig för sådana attacker?

    Insiktsreferenser

    Följande populära och institutionella länkar hänvisades till för denna insikt:

    Centrum för säkerhet och ny teknik Automatisera cyberattacker