Aŭtomatigitaj ciberatakoj uzante AI: Kiam maŝinoj iĝas ciberkrimuloj

BILDA KREDITO:
Bildo kredito
iStock

Aŭtomatigitaj ciberatakoj uzante AI: Kiam maŝinoj iĝas ciberkrimuloj

Aŭtomatigitaj ciberatakoj uzante AI: Kiam maŝinoj iĝas ciberkrimuloj

Subtitolo teksto
La potenco de artefarita inteligenteco (AI) kaj maŝina lernado (ML) estas ekspluatata de retpiratoj por fari ciberatakojn pli efikaj kaj mortigaj.
    • Aŭtoro:
    • Aŭtora nomo
      Quantumrun Foresight
    • Septembro 30, 2022

    Enrigarda resumo

    Artefarita inteligenteco (AI) kaj maŝinlernado (ML) estas ĉiam pli uzataj en cibersekureco, kaj por protekti sistemojn kaj por efektivigi ciberatakojn. Ilia kapablo lerni de datumoj kaj kondutoj ebligas ilin identigi sistemajn vundeblecojn, sed ankaŭ malfaciligas spuri la fonton malantaŭ ĉi tiuj algoritmoj. Ĉi tiu evoluanta pejzaĝo de AI en ciberkrimo vekas zorgojn inter IT-fakuloj, postulas altnivelajn defendajn strategiojn kaj povas kaŭzi gravajn ŝanĝojn pri kiel registaroj kaj kompanioj alproksimiĝas al cibersekureco.

    Aŭtomatigitaj ciberatakoj uzante AI-kuntekston

    Artefarita inteligenteco kaj ML konservas la kapablon aŭtomatigi preskaŭ ĉiujn taskojn, inkluzive de lernado de ripeta konduto kaj ŝablonoj, farante potencan ilon por identigi vundeblecojn en sistemo. Pli grave, AI kaj ML malfaciligas indiki personon aŭ enton malantaŭ algoritmo.

    En 2022, dum la Subkomitato pri Cibersekureco de la Armitaj Servoj de la Senato de Usono, Eric Horvitz, la ĉefa scienca oficisto de Mikrosofto, nomis la uzon de artefarita inteligenteco (AI) por aŭtomatigi ciberatakojn "ofensivan AI". Li emfazis, ke estas malfacile determini ĉu ciberatako estas AI-movita. Simile, tiu maŝinlernado (ML) estas uzata por helpi ciberatakojn; ML estas uzata por lerni ofte uzatajn vortojn kaj strategiojn por krei pasvortojn por pli bone haki ilin. 

    Enketo de la cibersekureca firmao Darktrace malkovris, ke IT-administraj teamoj ĉiam pli zorgas pri la ebla uzo de AI en ciberkrimoj, kun 96 procentoj de respondantoj indikas, ke ili jam esploras eblajn solvojn. Fakuloj pri IT-sekureco sentas ŝanĝon en ciberatakaj metodoj de ransomware kaj phishing al pli kompleksaj malware malfacile detekteblaj kaj deturneblaj. Ebla risko de AI-ebligita ciberkrimo estas la enkonduko de koruptitaj aŭ manipulitaj datumoj en ML-modeloj.

    ML-atako povas influi programaron kaj aliajn teknologiojn nuntempe disvolvitajn por subteni nuban komputadon kaj randan AI. Nesufiĉaj trejnaddatenoj ankaŭ povas plifortigi algoritmo-biasojn kiel ekzemple malĝuste etikedado de minoritataj grupoj aŭ influado de prognoza polico por celi marĝenigitajn komunumojn. Artefarita Inteligenteco povas enkonduki subtilajn sed katastrofajn informojn en sistemojn, kiuj povas havi longdaŭrajn sekvojn.

    Disrompa efiko

    Studo de esploristoj de Georgetown University pri la cibermortiga ĉeno (kontrollisto de taskoj faritaj por lanĉi sukcesan ciberatakon) montris, ke specifaj ofensivaj strategioj povus profiti el ML. Ĉi tiuj metodoj inkluzivas spearphishing (retpoŝtaj fraŭdoj direktitaj al specifaj homoj kaj organizoj), konstati malfortojn en IT-infrastrukturoj, liverado de malica kodo en retojn kaj evitante detekton de cibersekurecaj sistemoj. Maŝinlernado ankaŭ povas pliigi la ŝancojn de socia inĝenierado-atakoj sukcesi, kie homoj estas trompitaj malkaŝi sentemajn informojn aŭ plenumi specifajn agojn kiel financaj transakcioj. 

    Krome, la cibermortiga ĉeno povas aŭtomatigi iujn procezojn, inkluzive: 

    • Ampleksa gvatado - sendependaj skaniloj kolektantaj informojn de celretoj, inkluzive de iliaj konektitaj sistemoj, defendoj kaj programaraj agordoj. 
    • Vasta armiliĝo - AI-iloj identigas malfortojn en infrastrukturo kaj kreas kodon por infiltri ĉi tiujn kaŝpasejojn. Ĉi tiu aŭtomata detekto ankaŭ povas celi specifajn ciferecajn ekosistemojn aŭ organizojn. 
    • Livero aŭ hakado - AI-iloj uzantaj aŭtomatigon por efektivigi spearphishing kaj socian inĝenieradon por celi milojn da homoj. 

    Aktuale en 2023, skribi kompleksan kodon ankoraŭ estas en la sfero de homaj programistoj, sed spertuloj kredas, ke ankaŭ ne daŭros longe antaŭ ol maŝinoj akiros ĉi tiun kapablon. AlphaCode de DeepMind estas elstara ekzemplo de tiaj progresintaj AI-sistemoj. Ĝi helpas programistojn analizante grandajn kvantojn da kodo por lerni ŝablonojn kaj generi optimumigitajn kodsolvojn

    Implicoj de aŭtomataj ciberatakoj uzante AI

    Pli larĝaj implicoj de aŭtomatigitaj ciberatakoj uzantaj AI povas inkluzivi: 

    • Firmaoj profundigante siajn ciberdefendajn buĝetojn por evoluigi altnivelajn cibersolvojn por detekti kaj ĉesigi aŭtomatigitajn ciberatakojn.
    • Ciberkrimuloj studantaj ML-metodojn por krei algoritmojn kiuj povas sekrete invadi kompaniajn kaj publikajn sektorajn sistemojn.
    • Pliigitaj okazaĵoj de ciberatakoj, kiuj estas bone reĝisoritaj kaj celas plurajn organizojn samtempe.
    • Ofensiva AI-programaro uzata por kapti kontrolon de militaj armiloj, maŝinoj kaj infrastrukturaj komandcentroj.
    • Ofensiva AI-programaro uzata por enfiltri, modifi aŭ ekspluati la sistemojn de kompanio por malkonstrui publikajn kaj privatajn infrastrukturojn. 
    • Iuj registaroj eble reorganizas la ciferecajn defendojn de sia hejma privata sektoro sub la kontrolo kaj protekto de siaj respektivaj naciaj cibersekurecaj agentejoj.

    Konsiderindaj demandoj

    • Kio estas la aliaj eblaj konsekvencoj de ciberatakoj ebligitaj de AI?
    • Kiel alie kompanioj povas prepariĝi por tiaj atakoj?

    Enrigardaj referencoj

    La sekvaj popularaj kaj instituciaj ligiloj estis referenceitaj por ĉi tiu kompreno:

    Centro por Sekureco kaj Emerĝanta Teknologio Aŭtomatigi Ciber-atakojn