Automatizované kybernetické útoky pomocí AI: Když se stroje stanou kyberzločinci

KREDIT OBRAZU:
Kredit
iStock

Automatizované kybernetické útoky pomocí AI: Když se stroje stanou kyberzločinci

Automatizované kybernetické útoky pomocí AI: Když se stroje stanou kyberzločinci

Text podnadpisu
Sílu umělé inteligence (AI) a strojového učení (ML) využívají hackeři k tomu, aby kybernetické útoky byly efektivnější a smrtelnější.
    • Autor:
    • jméno autora
      Quantumrun Foresight
    • Září 30, 2022

    Shrnutí statistik

    Umělá inteligence (AI) a strojové učení (ML) se stále více používají v kybernetické bezpečnosti, a to jak pro ochranu systémů, tak při provádění kybernetických útoků. Jejich schopnost učit se z dat a chování jim umožňuje identifikovat zranitelnosti systému, ale také ztěžuje dohledání zdroje za těmito algoritmy. Toto vyvíjející se prostředí umělé inteligence v oblasti kybernetické kriminality vyvolává obavy mezi IT odborníky, vyžaduje pokročilé obranné strategie a může vést k významným změnám v přístupu vlád a společností ke kybernetické bezpečnosti.

    Automatizované kybernetické útoky pomocí kontextu AI

    Umělá inteligence a ML udržují schopnost automatizovat téměř všechny úkoly, včetně učení z opakujícího se chování a vzorců, což představuje výkonný nástroj k identifikaci zranitelností v systému. Ještě důležitější je, že AI a ML ztěžují určení osoby nebo entity za algoritmem.

    V roce 2022, během podvýboru pro ozbrojené služby amerického Senátu pro kybernetickou bezpečnost, Eric Horvitz, hlavní vědecký ředitel Microsoftu, zmínil použití umělé inteligence (AI) k automatizaci kybernetických útoků jako „ofenzivní AI“. Zdůraznil, že je těžké určit, zda je kybernetický útok řízen umělou inteligencí. Podobně se strojové učení (ML) používá k podpoře kybernetických útoků; ML se používá k učení běžně používaných slov a strategií při vytváření hesel, aby je bylo možné lépe hackovat. 

    Průzkum společnosti Darktrace zabývající se kybernetickou bezpečností zjistil, že týmy IT managementu se stále více obávají potenciálního využití AI při kyberzločinech, přičemž 96 procent respondentů uvedlo, že již zkoumají možná řešení. Odborníci na IT bezpečnost cítí posun v metodách kybernetických útoků od ransomwaru a phishingu ke složitějšímu malwaru, který je obtížné odhalit a odvrátit. Možným rizikem kybernetické kriminality s umělou inteligencí je vnesení poškozených nebo zmanipulovaných dat do modelů ML.

    Útok ML může ovlivnit software a další technologie, které jsou v současné době vyvíjeny na podporu cloud computingu a edge AI. Nedostatečná trénovací data mohou také znovu posílit předpojatost algoritmů, jako je nesprávné označování menšinových skupin nebo ovlivňování prediktivní policie zaměřené na marginalizované komunity. Umělá inteligence může do systémů vnést jemné, ale katastrofální informace, což může mít dlouhodobé následky.

    Rušivý dopad

    Studie výzkumníků z Georgetownské univerzity o řetězu kybernetického zabíjení (kontrolní seznam úkolů provedených k zahájení úspěšného kybernetického útoku) ukázala, že konkrétní útočné strategie by mohly mít prospěch z ML. Tyto metody zahrnují spearphishing (e-mailové podvody zaměřené na konkrétní lidi a organizace), odhalování slabých míst v IT infrastruktuře, dodávání škodlivého kódu do sítí a vyhýbání se detekci ze strany kybernetických bezpečnostních systémů. Strojové učení může také zvýšit šance na úspěch útoků sociálního inženýrství, kdy jsou lidé podvedeni k odhalení citlivých informací nebo provádění konkrétních akcí, jako jsou finanční transakce. 

    Kromě toho může řetězec kybernetického zabíjení automatizovat některé procesy, včetně: 

    • Rozsáhlý dohled – autonomní skenery shromažďující informace z cílových sítí, včetně jejich připojených systémů, obrany a nastavení softwaru. 
    • Rozsáhlá zbrojení – nástroje umělé inteligence identifikující slabá místa v infrastruktuře a vytvářejí kód pro infiltraci těchto mezer. Tato automatická detekce může také cílit na konkrétní digitální ekosystémy nebo organizace. 
    • Doručování nebo hackování – nástroje umělé inteligence využívající automatizaci k provádění spearphishingu a sociálního inženýrství zaměřeného na tisíce lidí. 

    Od roku 2023 je psaní složitého kódu stále v říši lidských programátorů, ale odborníci se domnívají, že nebude trvat dlouho, než si tuto dovednost osvojí i stroje. AlphaCode společnosti DeepMind je prominentním příkladem takových pokročilých systémů umělé inteligence. Pomáhá programátorům analyzovat velké množství kódu, aby se naučili vzory a generovali optimalizovaná řešení kódu

    Důsledky automatizovaných kybernetických útoků pomocí AI

    Širší důsledky automatizovaných kybernetických útoků využívajících AI mohou zahrnovat: 

    • Společnosti prohlubující své rozpočty na kybernetickou obranu, aby vyvíjely pokročilá kybernetická řešení pro detekci a zastavení automatizovaných kybernetických útoků.
    • Kyberzločinci studující metody ML, aby vytvořili algoritmy, které mohou tajně napadnout systémy podnikového a veřejného sektoru.
    • Zvýšený počet případů kybernetických útoků, které jsou dobře zorganizované a zaměřují se na více organizací najednou.
    • Ofenzivní software umělé inteligence používaný k převzetí kontroly nad vojenskými zbraněmi, stroji a velitelskými centry infrastruktury.
    • Ofenzivní software umělé inteligence používaný k infiltraci, úpravě nebo zneužití firemních systémů k likvidaci veřejné a soukromé infrastruktury. 
    • Některé vlády potenciálně reorganizují digitální obranu svého domácího soukromého sektoru pod kontrolou a ochranou svých příslušných národních agentur pro kybernetickou bezpečnost.

    Otázky k zamyšlení

    • Jaké jsou další potenciální důsledky kybernetických útoků s umělou inteligencí?
    • Jak jinak se mohou firmy na podobné útoky připravit?

    Statistikové reference

    Následující populární a institucionální odkazy byly uvedeny pro tento náhled:

    Centrum pro bezpečnost a nové technologie Automatizace kybernetických útoků