Automatiserede cyberangreb ved hjælp af kunstig intelligens: Når maskiner bliver cyberkriminelle

BILLEDKREDIT:
Image credit
iStock

Automatiserede cyberangreb ved hjælp af kunstig intelligens: Når maskiner bliver cyberkriminelle

Automatiserede cyberangreb ved hjælp af kunstig intelligens: Når maskiner bliver cyberkriminelle

Underoverskriftstekst
Kraften i kunstig intelligens (AI) og maskinlæring (ML) bliver udnyttet af hackere til at gøre cyberangreb mere effektive og dødelige.
    • Forfatter:
    • Forfatter navn
      Quantumrun Foresight
    • September 30, 2022

    Post tekst

    Kunstig intelligens (AI) og machine learning (ML) bevarer evnen til at automatisere næsten alle opgaver, inklusive læring fra gentagne adfærd og mønstre, hvilket gør et kraftfuldt værktøj til at identificere sårbarheder i et system. Endnu vigtigere, AI og ML gør det udfordrende at udpege en person eller en enhed bag en algoritme.

    Automatiserede cyberangreb ved hjælp af AI-kontekst

    I 2022 henviste Eric Horvitz, Microsofts videnskabelige officer, Eric Horvitz til brugen af ​​kunstig intelligens (AI) til at automatisere cyberangreb til at automatisere cyberangreb som "offensiv AI". Understreger, at det er svært at afgøre, om et cyberangreb er AI-drevet. På samme måde bliver maskinlæring (ML) brugt til at hjælpe cyberangreb; ML bruges til at lære almindeligt anvendte ord og strategier til at skabe adgangskoder for at hacke dem bedre. 

    En undersøgelse foretaget af cybersikkerhedsfirmaet Darktrace opdagede, at it-ledelsesteams i stigende grad er bekymrede over den potentielle brug af kunstig intelligens til cyberkriminalitet, hvor 96 procent af de adspurgte angiver, at de allerede undersøger mulige løsninger. 

    IT-sikkerhedseksperter mærker et skift i cyberangrebsmetoder fra ransomware og phishing til mere kompleks malware, som er svære at opdage og aflede. Mulig risiko for AI-aktiveret cyberkriminalitet er introduktionen af ​​korrupte eller manipulerede data i ML-modeller. Et ML-angreb kan påvirke software og andre teknologier, der i øjeblikket udvikles til at understøtte cloud computing og edge AI. Utilstrækkelige træningsdata kan også forstærke algoritmeforstyrrelser, såsom forkert tagging af minoritetsgrupper eller påvirke prædiktiv politiarbejde til at målrette mod marginaliserede samfund. Kunstig intelligens kan introducere subtil, men katastrofal information i systemer, hvilket kan have langvarige konsekvenser.

    Forstyrrende påvirkning

    En undersøgelse foretaget af forskere fra Georgetown University om cyberdræbningskæden (en tjekliste over opgaver udført for at iværksætte et vellykket cyberangreb) viste, at specifikke offensive strategier kunne drage fordel af ML. Disse metoder omfatter spearphishing (e-mail-svindel rettet mod specifikke personer og organisationer), lokalisering af svagheder i it-infrastrukturer, levering af ondsindet kode i netværk og undgåelse af opdagelse af cybersikkerhedssystemer. Maskinlæring kan også øge chancerne for, at sociale ingeniørangreb lykkes, hvor folk bliver bedraget til at afsløre følsomme oplysninger eller udføre specifikke handlinger som f.eks. finansielle transaktioner. 

    Derudover kan cyberdræbningskæden automatisere nogle processer, herunder: 

    • Omfattende overvågning - autonome scannere, der indsamler information fra målnetværk, inklusive deres tilsluttede systemer, forsvar og softwareindstillinger. 
    • Enorme våbendannelse - AI-værktøjer, der identificerer svagheder i infrastrukturen og skaber kode til at infiltrere disse smuthuller. Denne automatiserede detektion kan også målrette mod specifikke digitale økosystemer eller organisationer. 
    • Levering eller hacking - AI-værktøjer, der bruger automatisering til at udføre spearphishing og social engineering for at målrette tusindvis af mennesker. 

    Fra 2022 er skrivning af kompleks kode stadig inden for menneskelige programmørers område, men eksperter mener, at det ikke vil vare længe, ​​før maskiner også opnår denne færdighed. 

    Implikationer af automatiserede cyberangreb ved hjælp af AI

    Bredere implikationer af automatiserede cyberangreb ved hjælp af kunstig intelligens kan omfatte: 

    • Virksomheder, der uddyber deres cyberforsvarsbudgetter for at udvikle avancerede cyberløsninger til at opdage og stoppe automatiserede cyberangreb.
    • Cyberkriminelle studerer ML-metoder til at skabe algoritmer, der i hemmelighed kan invadere virksomheders og offentlige systemer.
    • Øgede tilfælde af cyberangreb, der er velorganiserede og retter sig mod flere organisationer på én gang.
    • Offensiv AI-software brugt til at overtage kontrollen over militære våben, maskiner og infrastrukturkommandocentre.
    • Stødende AI-software, der bruges til at infiltrere, ændre eller udnytte en virksomheds systemer til at nedbryde offentlige og private infrastrukturer. 
    • Nogle regeringer omorganiserer potentielt det digitale forsvar af deres private private sektor under kontrol og beskyttelse af deres respektive nationale cybersikkerhedsagenturer.

    Spørgsmål at kommentere på

    • Hvad er de andre potentielle konsekvenser af AI-aktiverede cyberangreb?
    • Hvordan kan virksomheder ellers forberede sig på sådanne angreb?

    Indsigtsreferencer

    Følgende populære og institutionelle links blev refereret til denne indsigt:

    Center for sikkerhed og ny teknologi Automatisering af cyberangreb