Cyberattaques automatisées utilisant l'IA : quand les machines deviennent des cybercriminels

CRÉDIT D'IMAGE:
Crédit image
iStock

Cyberattaques automatisées utilisant l'IA : quand les machines deviennent des cybercriminels

Cyberattaques automatisées utilisant l'IA : quand les machines deviennent des cybercriminels

Texte du sous-titre
La puissance de l'intelligence artificielle (IA) et de l'apprentissage automatique (ML) est exploitée par les pirates pour rendre les cyberattaques plus efficaces et mortelles.
    • Auteur :
    • Nom de l'auteur
      Prévision quantique
    • 30 septembre 2022

    Résumé des informations

    L'intelligence artificielle (IA) et l'apprentissage automatique (ML) sont de plus en plus utilisés en cybersécurité, à la fois pour protéger les systèmes et pour exécuter des cyberattaques. Leur capacité à apprendre des données et des comportements leur permet d’identifier les vulnérabilités du système, mais rend également difficile la traçabilité de la source derrière ces algorithmes. Ce paysage évolutif de l’IA dans la cybercriminalité suscite des inquiétudes parmi les experts informatiques, nécessite des stratégies de défense avancées et peut conduire à des changements importants dans la manière dont les gouvernements et les entreprises abordent la cybersécurité.

    Cyberattaques automatisées utilisant le contexte de l'IA

    L'intelligence artificielle et le ML conservent la capacité d'automatiser presque toutes les tâches, y compris l'apprentissage à partir de comportements et de modèles répétitifs, ce qui en fait un outil puissant pour identifier les vulnérabilités d'un système. Plus important encore, l’IA et le ML rendent difficile l’identification d’une personne ou d’une entité derrière un algorithme.

    En 2022, lors de la sous-commission des services armés du Sénat américain sur la cybersécurité, Eric Horvitz, directeur scientifique de Microsoft, a qualifié l’utilisation de l’intelligence artificielle (IA) pour automatiser les cyberattaques d’« IA offensive ». Il a souligné qu’il est difficile de déterminer si une cyberattaque est motivée par l’IA. De même, l’apprentissage automatique (ML) est utilisé pour faciliter les cyberattaques ; ML est utilisé pour apprendre des mots et des stratégies couramment utilisés pour créer des mots de passe afin de mieux les pirater. 

    Une enquête menée par la société de cybersécurité Darktrace a révélé que les équipes de direction informatique sont de plus en plus préoccupées par l'utilisation potentielle de l'IA dans la cybercriminalité, 96 % des personnes interrogées indiquant qu'elles recherchent déjà des solutions possibles. Les experts en sécurité informatique constatent une évolution des méthodes de cyberattaque, passant des ransomwares et du phishing à des logiciels malveillants plus complexes, difficiles à détecter et à détourner. Le risque possible de cybercriminalité basée sur l'IA est l'introduction de données corrompues ou manipulées dans les modèles de ML.

    Une attaque de ML peut avoir un impact sur les logiciels et autres technologies actuellement développés pour prendre en charge le cloud computing et l’IA de pointe. Des données de formation insuffisantes peuvent également renforcer les biais des algorithmes, tels que le marquage incorrect des groupes minoritaires ou l'influence de la police prédictive pour cibler les communautés marginalisées. L’intelligence artificielle peut introduire des informations subtiles mais désastreuses dans les systèmes, ce qui peut avoir des conséquences à long terme.

    Impact perturbateur

    Une étude menée par des chercheurs de l'Université de Georgetown sur la cyber kill chain (une liste de contrôle des tâches effectuées pour lancer une cyberattaque réussie) a montré que des stratégies offensives spécifiques pourraient bénéficier du ML. Ces méthodes incluent le spearphishing (escroqueries par e-mail dirigées vers des personnes et des organisations spécifiques), la détection des faiblesses des infrastructures informatiques, la diffusion de code malveillant sur les réseaux et la prévention de la détection par les systèmes de cybersécurité. L'apprentissage automatique peut également augmenter les chances de succès des attaques d'ingénierie sociale, où les gens sont amenés à révéler des informations sensibles ou à effectuer des actions spécifiques comme des transactions financières. 

    De plus, la cyber kill chain peut automatiser certains processus, notamment : 

    • Surveillance étendue - scanners autonomes recueillant des informations à partir des réseaux cibles, y compris leurs systèmes connectés, leurs défenses et leurs paramètres logiciels. 
    • Vaste militarisation - Des outils d'IA identifient les faiblesses de l'infrastructure et créent du code pour infiltrer ces failles. Cette détection automatisée peut également cibler des écosystèmes ou des organisations numériques spécifiques. 
    • Livraison ou piratage - Outils d'IA utilisant l'automatisation pour exécuter le spearphishing et l'ingénierie sociale pour cibler des milliers de personnes. 

    En 2023, l’écriture de code complexe relève toujours du domaine des programmeurs humains, mais les experts estiment qu’il ne faudra pas longtemps avant que les machines acquièrent également cette compétence. AlphaCode de DeepMind est un exemple frappant de ces systèmes d'IA avancés. Il aide les programmeurs en analysant de grandes quantités de code pour apprendre des modèles et générer des solutions de code optimisées.

    Implications des cyberattaques automatisées utilisant l'IA

    Les implications plus larges des cyberattaques automatisées utilisant l'IA peuvent inclure : 

    • Les entreprises approfondissent leurs budgets de cyberdéfense pour développer des cybersolutions avancées pour détecter et arrêter les cyberattaques automatisées.
    • Les cybercriminels étudient les méthodes de ML pour créer des algorithmes capables d'envahir secrètement les systèmes des entreprises et du secteur public.
    • Augmentation des incidents de cyberattaques bien orchestrées et ciblant plusieurs organisations à la fois.
    • Logiciel d'intelligence artificielle offensif utilisé pour prendre le contrôle d'armes, de machines et de centres de commandement d'infrastructures militaires.
    • Logiciel d'intelligence artificielle offensif utilisé pour infiltrer, modifier ou exploiter les systèmes d'une entreprise afin de détruire les infrastructures publiques et privées. 
    • Certains gouvernements réorganisent potentiellement les défenses numériques de leur secteur privé national sous le contrôle et la protection de leurs agences nationales de cybersécurité respectives.

    Questions à considérer

    • Quelles sont les autres conséquences potentielles des cyberattaques basées sur l'IA ?
    • Sinon, comment les entreprises peuvent-elles se préparer à de telles attaques ?

    Références Insight

    Les liens populaires et institutionnels suivants ont été référencés pour cet aperçu :

    Centre pour la sécurité et les technologies émergentes Automatisation des cyberattaques