Automatizované kybernetické útoky pomocí AI: Když se stroje stanou kyberzločinci
Automatizované kybernetické útoky pomocí AI: Když se stroje stanou kyberzločinci
Automatizované kybernetické útoky pomocí AI: Když se stroje stanou kyberzločinci
- Autor:
- Září 30, 2022
Umělá inteligence (AI) a strojové učení (ML) si udržují schopnost automatizovat téměř všechny úkoly, včetně učení z opakujícího se chování a vzorců, což představuje výkonný nástroj k identifikaci zranitelností v systému. Ještě důležitější je, že AI a ML ztěžují určení osoby nebo entity za algoritmem.
Automatizované kybernetické útoky pomocí kontextu AI
V roce 2022, během podvýboru pro ozbrojené služby amerického Senátu pro kybernetickou bezpečnost, Eric Horvitz, vedoucí vědecký pracovník Microsoftu, označil použití umělé inteligence (AI) k automatizaci kybernetických útoků za „ofenzivní AI“. Zdůraznění, že je těžké určit, zda je kybernetický útok řízen umělou inteligencí. Podobně se strojové učení (ML) používá k podpoře kybernetických útoků; ML se používá k učení běžně používaných slov a strategií při vytváření hesel, aby je bylo možné lépe hackovat.
Průzkum společnosti Darktrace zabývající se kybernetickou bezpečností zjistil, že týmy IT managementu se stále více zajímají o potenciální využití umělé inteligence při kyberzločinech, přičemž 96 procent respondentů uvedlo, že již zkoumají možná řešení.
Odborníci na IT bezpečnost cítí posun v metodách kybernetických útoků od ransomwaru a phishingu ke složitějšímu malwaru, který je obtížné odhalit a odvrátit. Možným rizikem kybernetické kriminality s umělou inteligencí je vnesení poškozených nebo zmanipulovaných dat do modelů ML. Útok ML může ovlivnit software a další technologie, které jsou v současné době vyvíjeny na podporu cloud computingu a edge AI. Nedostatečná trénovací data mohou také znovu posílit předpojatost algoritmů, jako je nesprávné označování menšinových skupin nebo ovlivňování prediktivní policie zaměřené na marginalizované komunity. Umělá inteligence může do systémů vnést jemné, ale katastrofální informace, což může mít dlouhodobé následky.
Rušivý dopad
Studie výzkumníků z Georgetownské univerzity o řetězu kybernetického zabíjení (kontrolní seznam úkolů provedených k zahájení úspěšného kybernetického útoku) ukázala, že konkrétní útočné strategie by mohly mít prospěch z ML. Tyto metody zahrnují spearphishing (e-mailové podvody zaměřené na konkrétní lidi a organizace), odhalování slabých míst v IT infrastruktuře, dodávání škodlivého kódu do sítí a vyhýbání se detekci ze strany kybernetických bezpečnostních systémů. Strojové učení může také zvýšit šance na úspěch útoků sociálního inženýrství, kdy jsou lidé podvedeni k odhalení citlivých informací nebo provádění konkrétních akcí, jako jsou finanční transakce.
Kromě toho může řetězec kybernetického zabíjení automatizovat některé procesy, včetně:
- Rozsáhlý dohled – autonomní skenery shromažďující informace z cílových sítí, včetně jejich připojených systémů, obrany a nastavení softwaru.
- Rozsáhlá zbrojení – nástroje umělé inteligence identifikující slabá místa v infrastruktuře a vytvářejí kód pro infiltraci těchto mezer. Tato automatická detekce může také cílit na konkrétní digitální ekosystémy nebo organizace.
- Doručování nebo hackování – nástroje umělé inteligence využívající automatizaci k provádění spearphishingu a sociálního inženýrství zaměřeného na tisíce lidí.
Od roku 2022 je psaní složitého kódu stále v oblasti lidských programátorů, ale odborníci se domnívají, že nebude trvat dlouho, než si tuto dovednost osvojí i stroje.
Důsledky automatizovaných kybernetických útoků pomocí AI
Širší důsledky automatizovaných kybernetických útoků využívajících AI mohou zahrnovat:
- Společnosti prohlubující své rozpočty na kybernetickou obranu, aby vyvíjely pokročilá kybernetická řešení pro detekci a zastavení automatizovaných kybernetických útoků.
- Kyberzločinci studující metody ML, aby vytvořili algoritmy, které mohou tajně napadnout systémy podnikového a veřejného sektoru.
- Zvýšený počet případů kybernetických útoků, které jsou dobře zorganizované a zaměřují se na více organizací najednou.
- Ofenzivní software umělé inteligence používaný k převzetí kontroly nad vojenskými zbraněmi, stroji a velitelskými centry infrastruktury.
- Ofenzivní software umělé inteligence používaný k infiltraci, úpravě nebo zneužití firemních systémů k likvidaci veřejné a soukromé infrastruktury.
- Některé vlády potenciálně reorganizují digitální obranu svého domácího soukromého sektoru pod kontrolou a ochranou svých příslušných národních agentur pro kybernetickou bezpečnost.
Otázky ke komentáři
- Jaké jsou další potenciální důsledky kybernetických útoků s umělou inteligencí?
- Jak jinak se mohou firmy na podobné útoky připravit?
Statistikové reference
Následující populární a institucionální odkazy byly uvedeny pro tento náhled: