Automatizované kybernetické útoky pomocou AI: Keď sa stroje stanú kyberzločincami

OBRÁZOK PRE OBRÁZOK:
Obrazový kredit
iStock

Automatizované kybernetické útoky pomocou AI: Keď sa stroje stanú kyberzločincami

Automatizované kybernetické útoky pomocou AI: Keď sa stroje stanú kyberzločincami

Text podnadpisu
Hackeri využívajú silu umelej inteligencie (AI) a strojového učenia (ML) na zefektívnenie a ničenie kybernetických útokov.
    • Autor:
    • meno autora
      Predvídavosť Quantumrun
    • September 30, 2022

    Súhrn prehľadu

    Umelá inteligencia (AI) a strojové učenie (ML) sa čoraz viac využívajú v kybernetickej bezpečnosti, a to ako na ochranu systémov, tak aj pri vykonávaní kybernetických útokov. Ich schopnosť učiť sa z údajov a správania im umožňuje identifikovať slabé miesta systému, no zároveň sťažuje vystopovanie zdroja za týmito algoritmami. Toto vyvíjajúce sa prostredie AI v oblasti počítačovej kriminality vyvoláva obavy medzi IT odborníkmi, vyžaduje pokročilé obranné stratégie a môže viesť k významným zmenám v tom, ako vlády a spoločnosti pristupujú ku kybernetickej bezpečnosti.

    Automatizované kybernetické útoky využívajúce kontext AI

    Umelá inteligencia a ML si zachovávajú schopnosť automatizovať takmer všetky úlohy, vrátane učenia sa z opakujúceho sa správania a vzorov, čo predstavuje výkonný nástroj na identifikáciu slabín v systéme. Ešte dôležitejšie je, že AI a ML sťažujú určenie osoby alebo entity za algoritmom.

    V roku 2022, počas podvýboru pre ozbrojené služby amerického Senátu pre kybernetickú bezpečnosť, Eric Horvitz, vedúci vedecký pracovník Microsoftu, označil používanie umelej inteligencie (AI) na automatizáciu kybernetických útokov za „ofenzívnu AI“. Zdôraznil, že je ťažké určiť, či je kybernetický útok riadený AI. Podobne sa strojové učenie (ML) používa na pomoc pri kybernetických útokoch; ML sa používa na učenie sa bežne používaných slov a stratégií pri vytváraní hesiel, aby ste ich mohli lepšie hackovať. 

    Prieskum spoločnosti Darktrace zaoberajúcej sa kybernetickou bezpečnosťou zistil, že tímy IT manažmentu sa čoraz viac obávajú potenciálneho využitia AI pri počítačovej kriminalite, pričom 96 percent respondentov uviedlo, že už skúmajú možné riešenia. Odborníci na bezpečnosť IT pociťujú posun v metódach kybernetických útokov od ransomvéru a phishingu k zložitejšiemu malvéru, ktorý je ťažké odhaliť a odvrátiť. Možným rizikom počítačovej kriminality s podporou AI je zavedenie poškodených alebo zmanipulovaných údajov do modelov ML.

    Útok ML môže ovplyvniť softvér a ďalšie technológie, ktoré sa v súčasnosti vyvíjajú na podporu cloud computingu a okrajovej AI. Nedostatočné tréningové údaje môžu tiež posilniť predsudky algoritmov, ako je nesprávne označovanie menšinových skupín alebo ovplyvňovanie prediktívnej polície zameranej na marginalizované komunity. Umelá inteligencia môže do systémov vniesť jemné, no katastrofálne informácie, čo môže mať dlhodobé následky.

    Rušivý vplyv

    Štúdia výskumníkov z Georgetownskej univerzity o reťazci kybernetického zabíjania (kontrolný zoznam úloh vykonaných na spustenie úspešného kybernetického útoku) ukázala, že špecifické útočné stratégie by mohli profitovať z ML. Medzi tieto metódy patrí spearphishing (e-mailové podvody zamerané na konkrétnych ľudí a organizácie), určenie slabých miest v infraštruktúre IT, dodávanie škodlivého kódu do sietí a vyhýbanie sa detekcii systémami kybernetickej bezpečnosti. Strojové učenie môže tiež zvýšiť šance na úspech útokov sociálneho inžinierstva, pri ktorých sú ľudia oklamaní, aby odhalili citlivé informácie alebo vykonali konkrétne akcie, ako sú finančné transakcie. 

    Okrem toho môže reťazec kybernetického zabíjania automatizovať niektoré procesy vrátane: 

    • Rozsiahly dohľad – autonómne skenery zhromažďujúce informácie z cieľových sietí vrátane ich pripojených systémov, obranných zariadení a nastavení softvéru. 
    • Rozsiahle zbrane – nástroje AI identifikujúce slabé miesta v infraštruktúre a vytvárajú kód na preniknutie do týchto medzier. Táto automatizovaná detekcia môže byť zameraná aj na konkrétne digitálne ekosystémy alebo organizácie. 
    • Doručovanie alebo hackovanie – nástroje AI využívajúce automatizáciu na vykonávanie spearphishingu a sociálneho inžinierstva na zacielenie na tisíce ľudí. 

    Od roku 2023 je písanie zložitého kódu stále v oblasti ľudských programátorov, ale odborníci sa domnievajú, že nepotrvá dlho, kým túto zručnosť získajú aj stroje. AlphaCode od DeepMind je prominentným príkladom takýchto pokročilých systémov AI. Pomáha programátorom analyzovať veľké množstvo kódu, aby sa naučili vzory a generovali optimalizované riešenia kódu

    Dôsledky automatizovaných kybernetických útokov pomocou AI

    Širšie dôsledky automatizovaných kybernetických útokov pomocou AI môžu zahŕňať: 

    • Spoločnosti prehlbujú svoje rozpočty na kybernetickú obranu, aby vyvinuli pokročilé kybernetické riešenia na detekciu a zastavenie automatizovaných kybernetických útokov.
    • Kyberzločinci študujú metódy ML na vytváranie algoritmov, ktoré môžu tajne napadnúť systémy podnikov a verejného sektora.
    • Zvýšený počet prípadov kybernetických útokov, ktoré sú dobre organizované a zameriavajú sa na viacero organizácií naraz.
    • Útočný softvér AI používaný na ovládnutie vojenských zbraní, strojov a riadiacich centier infraštruktúry.
    • Útočný softvér AI používaný na infiltráciu, úpravu alebo zneužitie systémov spoločnosti na zničenie verejnej a súkromnej infraštruktúry. 
    • Niektoré vlády potenciálne reorganizujú digitálnu obranu svojho domáceho súkromného sektora pod kontrolou a ochranou svojich príslušných národných agentúr pre kybernetickú bezpečnosť.

    Otázky na zváženie

    • Aké sú ďalšie potenciálne dôsledky kybernetických útokov s podporou AI?
    • Ako inak sa môžu firmy pripraviť na takéto útoky?

    Prehľadové referencie

    Pre tento prehľad boli použité nasledujúce populárne a inštitucionálne odkazy:

    Centrum pre bezpečnosť a nové technológie Automatizácia kybernetických útokov