Attacchi informatici automatizzati tramite l'intelligenza artificiale: quando le macchine diventano criminali informatici

CREDITO IMMAGINE:
Immagine di credito
iStock

Attacchi informatici automatizzati tramite l'intelligenza artificiale: quando le macchine diventano criminali informatici

Attacchi informatici automatizzati tramite l'intelligenza artificiale: quando le macchine diventano criminali informatici

Testo del sottotitolo
Il potere dell'intelligenza artificiale (AI) e dell'apprendimento automatico (ML) viene sfruttato dagli hacker per rendere gli attacchi informatici più efficaci e letali.
    • Autore:
    • Nome dell'autore
      Preveggenza quantistica
    • 30 settembre 2022

    Riepilogo approfondimenti

    L’intelligenza artificiale (AI) e l’apprendimento automatico (ML) vengono sempre più utilizzati nella sicurezza informatica, sia per proteggere i sistemi che per eseguire attacchi informatici. La loro capacità di apprendere dai dati e dai comportamenti consente loro di identificare le vulnerabilità del sistema, ma rende anche difficile risalire alla fonte dietro questi algoritmi. Questo panorama in evoluzione dell’intelligenza artificiale nel crimine informatico solleva preoccupazioni tra gli esperti IT, richiede strategie di difesa avanzate e può portare a cambiamenti significativi nel modo in cui governi e aziende affrontano la sicurezza informatica.

    Attacchi informatici automatizzati utilizzando il contesto dell'IA

    L’intelligenza artificiale e il machine learning mantengono la capacità di automatizzare quasi tutte le attività, compreso l’apprendimento da comportamenti e modelli ripetitivi, costituendo un potente strumento per identificare le vulnerabilità in un sistema. Ancora più importante, l’intelligenza artificiale e il machine learning rendono difficile individuare una persona o un’entità dietro un algoritmo.

    Nel 2022, durante la sottocommissione per la sicurezza informatica del Senato degli Stati Uniti sulle forze armate, Eric Horvitz, direttore scientifico di Microsoft, ha definito l’uso dell’intelligenza artificiale (AI) per automatizzare gli attacchi informatici “IA offensiva”. Ha sottolineato che è difficile determinare se un attacco informatico sia guidato dall’intelligenza artificiale. Allo stesso modo, l’apprendimento automatico (ML) viene utilizzato per favorire gli attacchi informatici; Il ML viene utilizzato per apprendere parole e strategie di uso comune nella creazione di password per hackerarle meglio. 

    Un sondaggio condotto dalla società di sicurezza informatica Darktrace ha scoperto che i team di gestione IT sono sempre più preoccupati per il potenziale utilizzo dell’intelligenza artificiale nei crimini informatici, con il 96% degli intervistati che indica che stanno già ricercando possibili soluzioni. Gli esperti di sicurezza IT avvertono un cambiamento nei metodi di attacco informatico, passando dal ransomware e dal phishing ai malware più complessi, difficili da rilevare e deviare. Il possibile rischio di criminalità informatica basata sull’intelligenza artificiale è l’introduzione di dati corrotti o manipolati nei modelli ML.

    Un attacco ML può avere un impatto sul software e su altre tecnologie attualmente in fase di sviluppo per supportare il cloud computing e l’intelligenza artificiale edge. Dati di formazione insufficienti possono anche rafforzare i pregiudizi degli algoritmi, come l’errata etichettatura dei gruppi minoritari o l’influenza della polizia predittiva per prendere di mira le comunità emarginate. L’intelligenza artificiale può introdurre nei sistemi informazioni subdole ma disastrose, che possono avere conseguenze di lunga durata.

    Impatto dirompente

    Uno studio condotto dai ricercatori della Georgetown University sulla cyber kill chain (un elenco di controllo delle attività eseguite per lanciare un attacco informatico di successo) ha mostrato che strategie offensive specifiche potrebbero trarre vantaggio dal ML. Questi metodi includono lo spearphishing (truffe via e-mail dirette a persone e organizzazioni specifiche), l'individuazione dei punti deboli nelle infrastrutture IT, la distribuzione di codice dannoso nelle reti ed evitare il rilevamento da parte dei sistemi di sicurezza informatica. L'apprendimento automatico può anche aumentare le possibilità che gli attacchi di ingegneria sociale abbiano successo, in cui le persone vengono indotte a rivelare informazioni sensibili o a eseguire azioni specifiche come transazioni finanziarie. 

    Inoltre, la cyber kill chain può automatizzare alcuni processi, tra cui: 

    • Sorveglianza estensiva: scanner autonomi che raccolgono informazioni dalle reti di destinazione, inclusi i sistemi connessi, le difese e le impostazioni del software. 
    • Vasta armamento: strumenti di intelligenza artificiale che identificano i punti deboli nell'infrastruttura e creano codice per infiltrarsi in queste scappatoie. Questo rilevamento automatizzato può anche prendere di mira specifici ecosistemi o organizzazioni digitali. 
    • Consegna o hacking: strumenti di intelligenza artificiale che utilizzano l'automazione per eseguire spearphishing e ingegneria sociale per prendere di mira migliaia di persone. 

    Nel 2023, scrivere codici complessi rientra ancora nell’ambito dei programmatori umani, ma gli esperti ritengono che non passerà molto tempo prima che anche le macchine acquisiscano questa abilità. AlphaCode di DeepMind è un esempio lampante di tali sistemi di intelligenza artificiale avanzati. Assiste i programmatori analizzando grandi quantità di codice per apprendere modelli e generare soluzioni di codice ottimizzate

    Implicazioni degli attacchi informatici automatizzati che utilizzano l'IA

    Implicazioni più ampie degli attacchi informatici automatizzati che utilizzano l'IA possono includere: 

    • Le aziende stanno ampliando i propri budget per la difesa informatica per sviluppare soluzioni informatiche avanzate per rilevare e fermare gli attacchi informatici automatizzati.
    • I criminali informatici studiano i metodi ML per creare algoritmi che possono invadere segretamente i sistemi aziendali e del settore pubblico.
    • Aumento degli incidenti di attacchi informatici che sono ben orchestrati e prendono di mira più organizzazioni contemporaneamente.
    • Software di intelligenza artificiale offensivo utilizzato per prendere il controllo di armi, macchine e centri di comando delle infrastrutture militari.
    • Software di intelligenza artificiale offensivo utilizzato per infiltrarsi, modificare o sfruttare i sistemi di un'azienda per abbattere infrastrutture pubbliche e private. 
    • Alcuni governi stanno potenzialmente riorganizzando le difese digitali del loro settore privato nazionale sotto il controllo e la protezione delle rispettive agenzie nazionali di sicurezza informatica.

    Domande da considerare

    • Quali sono le altre potenziali conseguenze degli attacchi informatici abilitati dall'intelligenza artificiale?
    • In quale altro modo le aziende possono prepararsi a tali attacchi?

    Riferimenti di approfondimento

    I seguenti collegamenti popolari e istituzionali sono stati referenziati per questa intuizione:

    Centro per la sicurezza e la tecnologia emergente Automatizzare gli attacchi informatici