Automatizované kybernetické útoky pomocou AI: Keď sa stroje stanú kyberzločincami
Automatizované kybernetické útoky pomocou AI: Keď sa stroje stanú kyberzločincami
Automatizované kybernetické útoky pomocou AI: Keď sa stroje stanú kyberzločincami
- Autor:
- September 30, 2022
Súhrn prehľadu
Umelá inteligencia (AI) a strojové učenie (ML) sa čoraz viac využívajú v kybernetickej bezpečnosti, a to ako na ochranu systémov, tak aj pri vykonávaní kybernetických útokov. Ich schopnosť učiť sa z údajov a správania im umožňuje identifikovať slabé miesta systému, no zároveň sťažuje vystopovanie zdroja za týmito algoritmami. Toto vyvíjajúce sa prostredie AI v oblasti počítačovej kriminality vyvoláva obavy medzi IT odborníkmi, vyžaduje pokročilé obranné stratégie a môže viesť k významným zmenám v tom, ako vlády a spoločnosti pristupujú ku kybernetickej bezpečnosti.
Automatizované kybernetické útoky využívajúce kontext AI
Umelá inteligencia a ML si zachovávajú schopnosť automatizovať takmer všetky úlohy, vrátane učenia sa z opakujúceho sa správania a vzorov, čo predstavuje výkonný nástroj na identifikáciu slabín v systéme. Ešte dôležitejšie je, že AI a ML sťažujú určenie osoby alebo entity za algoritmom.
V roku 2022, počas podvýboru pre ozbrojené služby amerického Senátu pre kybernetickú bezpečnosť, Eric Horvitz, vedúci vedecký pracovník Microsoftu, označil používanie umelej inteligencie (AI) na automatizáciu kybernetických útokov za „ofenzívnu AI“. Zdôraznil, že je ťažké určiť, či je kybernetický útok riadený AI. Podobne sa strojové učenie (ML) používa na pomoc pri kybernetických útokoch; ML sa používa na učenie sa bežne používaných slov a stratégií pri vytváraní hesiel, aby ste ich mohli lepšie hackovať.
Prieskum spoločnosti Darktrace zaoberajúcej sa kybernetickou bezpečnosťou zistil, že tímy IT manažmentu sa čoraz viac obávajú potenciálneho využitia AI pri počítačovej kriminalite, pričom 96 percent respondentov uviedlo, že už skúmajú možné riešenia. Odborníci na bezpečnosť IT pociťujú posun v metódach kybernetických útokov od ransomvéru a phishingu k zložitejšiemu malvéru, ktorý je ťažké odhaliť a odvrátiť. Možným rizikom počítačovej kriminality s podporou AI je zavedenie poškodených alebo zmanipulovaných údajov do modelov ML.
Útok ML môže ovplyvniť softvér a ďalšie technológie, ktoré sa v súčasnosti vyvíjajú na podporu cloud computingu a okrajovej AI. Nedostatočné tréningové údaje môžu tiež posilniť predsudky algoritmov, ako je nesprávne označovanie menšinových skupín alebo ovplyvňovanie prediktívnej polície zameranej na marginalizované komunity. Umelá inteligencia môže do systémov vniesť jemné, no katastrofálne informácie, čo môže mať dlhodobé následky.
Rušivý vplyv
Štúdia výskumníkov z Georgetownskej univerzity o reťazci kybernetického zabíjania (kontrolný zoznam úloh vykonaných na spustenie úspešného kybernetického útoku) ukázala, že špecifické útočné stratégie by mohli profitovať z ML. Medzi tieto metódy patrí spearphishing (e-mailové podvody zamerané na konkrétnych ľudí a organizácie), určenie slabých miest v infraštruktúre IT, dodávanie škodlivého kódu do sietí a vyhýbanie sa detekcii systémami kybernetickej bezpečnosti. Strojové učenie môže tiež zvýšiť šance na úspech útokov sociálneho inžinierstva, pri ktorých sú ľudia oklamaní, aby odhalili citlivé informácie alebo vykonali konkrétne akcie, ako sú finančné transakcie.
Okrem toho môže reťazec kybernetického zabíjania automatizovať niektoré procesy vrátane:
- Rozsiahly dohľad – autonómne skenery zhromažďujúce informácie z cieľových sietí vrátane ich pripojených systémov, obranných zariadení a nastavení softvéru.
- Rozsiahle zbrane – nástroje AI identifikujúce slabé miesta v infraštruktúre a vytvárajú kód na preniknutie do týchto medzier. Táto automatizovaná detekcia môže byť zameraná aj na konkrétne digitálne ekosystémy alebo organizácie.
- Doručovanie alebo hackovanie – nástroje AI využívajúce automatizáciu na vykonávanie spearphishingu a sociálneho inžinierstva na zacielenie na tisíce ľudí.
Od roku 2023 je písanie zložitého kódu stále v oblasti ľudských programátorov, ale odborníci sa domnievajú, že nepotrvá dlho, kým túto zručnosť získajú aj stroje. AlphaCode od DeepMind je prominentným príkladom takýchto pokročilých systémov AI. Pomáha programátorom analyzovať veľké množstvo kódu, aby sa naučili vzory a generovali optimalizované riešenia kódu
Dôsledky automatizovaných kybernetických útokov pomocou AI
Širšie dôsledky automatizovaných kybernetických útokov pomocou AI môžu zahŕňať:
- Spoločnosti prehlbujú svoje rozpočty na kybernetickú obranu, aby vyvinuli pokročilé kybernetické riešenia na detekciu a zastavenie automatizovaných kybernetických útokov.
- Kyberzločinci študujú metódy ML na vytváranie algoritmov, ktoré môžu tajne napadnúť systémy podnikov a verejného sektora.
- Zvýšený počet prípadov kybernetických útokov, ktoré sú dobre organizované a zameriavajú sa na viacero organizácií naraz.
- Útočný softvér AI používaný na ovládnutie vojenských zbraní, strojov a riadiacich centier infraštruktúry.
- Útočný softvér AI používaný na infiltráciu, úpravu alebo zneužitie systémov spoločnosti na zničenie verejnej a súkromnej infraštruktúry.
- Niektoré vlády potenciálne reorganizujú digitálnu obranu svojho domáceho súkromného sektora pod kontrolou a ochranou svojich príslušných národných agentúr pre kybernetickú bezpečnosť.
Otázky na zváženie
- Aké sú ďalšie potenciálne dôsledky kybernetických útokov s podporou AI?
- Ako inak sa môžu firmy pripraviť na takéto útoky?
Prehľadové referencie
Pre tento prehľad boli použité nasledujúce populárne a inštitucionálne odkazy: