Automatizované kybernetické útoky pomocí AI: Když se stroje stanou kyberzločinci
Automatizované kybernetické útoky pomocí AI: Když se stroje stanou kyberzločinci
Automatizované kybernetické útoky pomocí AI: Když se stroje stanou kyberzločinci
- Autor:
- Září 30, 2022
Shrnutí statistik
Umělá inteligence (AI) a strojové učení (ML) se stále více používají v kybernetické bezpečnosti, a to jak pro ochranu systémů, tak při provádění kybernetických útoků. Jejich schopnost učit se z dat a chování jim umožňuje identifikovat zranitelnosti systému, ale také ztěžuje dohledání zdroje za těmito algoritmy. Toto vyvíjející se prostředí umělé inteligence v oblasti kybernetické kriminality vyvolává obavy mezi IT odborníky, vyžaduje pokročilé obranné strategie a může vést k významným změnám v přístupu vlád a společností ke kybernetické bezpečnosti.
Automatizované kybernetické útoky pomocí kontextu AI
Umělá inteligence a ML udržují schopnost automatizovat téměř všechny úkoly, včetně učení z opakujícího se chování a vzorců, což představuje výkonný nástroj k identifikaci zranitelností v systému. Ještě důležitější je, že AI a ML ztěžují určení osoby nebo entity za algoritmem.
V roce 2022, během podvýboru pro ozbrojené služby amerického Senátu pro kybernetickou bezpečnost, Eric Horvitz, hlavní vědecký ředitel Microsoftu, zmínil použití umělé inteligence (AI) k automatizaci kybernetických útoků jako „ofenzivní AI“. Zdůraznil, že je těžké určit, zda je kybernetický útok řízen umělou inteligencí. Podobně se strojové učení (ML) používá k podpoře kybernetických útoků; ML se používá k učení běžně používaných slov a strategií při vytváření hesel, aby je bylo možné lépe hackovat.
Průzkum společnosti Darktrace zabývající se kybernetickou bezpečností zjistil, že týmy IT managementu se stále více obávají potenciálního využití AI při kyberzločinech, přičemž 96 procent respondentů uvedlo, že již zkoumají možná řešení. Odborníci na IT bezpečnost cítí posun v metodách kybernetických útoků od ransomwaru a phishingu ke složitějšímu malwaru, který je obtížné odhalit a odvrátit. Možným rizikem kybernetické kriminality s umělou inteligencí je vnesení poškozených nebo zmanipulovaných dat do modelů ML.
Útok ML může ovlivnit software a další technologie, které jsou v současné době vyvíjeny na podporu cloud computingu a edge AI. Nedostatečná trénovací data mohou také znovu posílit předpojatost algoritmů, jako je nesprávné označování menšinových skupin nebo ovlivňování prediktivní policie zaměřené na marginalizované komunity. Umělá inteligence může do systémů vnést jemné, ale katastrofální informace, což může mít dlouhodobé následky.
Rušivý dopad
Studie výzkumníků z Georgetownské univerzity o řetězu kybernetického zabíjení (kontrolní seznam úkolů provedených k zahájení úspěšného kybernetického útoku) ukázala, že konkrétní útočné strategie by mohly mít prospěch z ML. Tyto metody zahrnují spearphishing (e-mailové podvody zaměřené na konkrétní lidi a organizace), odhalování slabých míst v IT infrastruktuře, dodávání škodlivého kódu do sítí a vyhýbání se detekci ze strany kybernetických bezpečnostních systémů. Strojové učení může také zvýšit šance na úspěch útoků sociálního inženýrství, kdy jsou lidé podvedeni k odhalení citlivých informací nebo provádění konkrétních akcí, jako jsou finanční transakce.
Kromě toho může řetězec kybernetického zabíjení automatizovat některé procesy, včetně:
- Rozsáhlý dohled – autonomní skenery shromažďující informace z cílových sítí, včetně jejich připojených systémů, obrany a nastavení softwaru.
- Rozsáhlá zbrojení – nástroje umělé inteligence identifikující slabá místa v infrastruktuře a vytvářejí kód pro infiltraci těchto mezer. Tato automatická detekce může také cílit na konkrétní digitální ekosystémy nebo organizace.
- Doručování nebo hackování – nástroje umělé inteligence využívající automatizaci k provádění spearphishingu a sociálního inženýrství zaměřeného na tisíce lidí.
Od roku 2023 je psaní složitého kódu stále v říši lidských programátorů, ale odborníci se domnívají, že nebude trvat dlouho, než si tuto dovednost osvojí i stroje. AlphaCode společnosti DeepMind je prominentním příkladem takových pokročilých systémů umělé inteligence. Pomáhá programátorům analyzovat velké množství kódu, aby se naučili vzory a generovali optimalizovaná řešení kódu
Důsledky automatizovaných kybernetických útoků pomocí AI
Širší důsledky automatizovaných kybernetických útoků využívajících AI mohou zahrnovat:
- Společnosti prohlubující své rozpočty na kybernetickou obranu, aby vyvíjely pokročilá kybernetická řešení pro detekci a zastavení automatizovaných kybernetických útoků.
- Kyberzločinci studující metody ML, aby vytvořili algoritmy, které mohou tajně napadnout systémy podnikového a veřejného sektoru.
- Zvýšený počet případů kybernetických útoků, které jsou dobře zorganizované a zaměřují se na více organizací najednou.
- Ofenzivní software umělé inteligence používaný k převzetí kontroly nad vojenskými zbraněmi, stroji a velitelskými centry infrastruktury.
- Ofenzivní software umělé inteligence používaný k infiltraci, úpravě nebo zneužití firemních systémů k likvidaci veřejné a soukromé infrastruktury.
- Některé vlády potenciálně reorganizují digitální obranu svého domácího soukromého sektoru pod kontrolou a ochranou svých příslušných národních agentur pro kybernetickou bezpečnost.
Otázky k zamyšlení
- Jaké jsou další potenciální důsledky kybernetických útoků s umělou inteligencí?
- Jak jinak se mohou firmy na podobné útoky připravit?
Statistikové reference
Následující populární a institucionální odkazy byly uvedeny pro tento náhled: