Ciberataques automatizados mediante IA: cuando las máquinas se convierten en ciberdelincuentes

CREDITO DE IMAGEN:
Crédito de la imagen
iStock

Ciberataques automatizados mediante IA: cuando las máquinas se convierten en ciberdelincuentes

Ciberataques automatizados mediante IA: cuando las máquinas se convierten en ciberdelincuentes

Subtítulo de texto
Los piratas informáticos están explotando el poder de la inteligencia artificial (IA) y el aprendizaje automático (ML) para hacer que los ataques cibernéticos sean más efectivos y letales.
    • Escrito por:
    • Nombre del autor
      Previsión Quantumrun
    • 30 de septiembre de 2022

    Resumen de información

    La inteligencia artificial (IA) y el aprendizaje automático (ML) se utilizan cada vez más en ciberseguridad, tanto para proteger sistemas como para ejecutar ciberataques. Su capacidad para aprender de datos y comportamientos les permite identificar vulnerabilidades del sistema, pero también dificulta rastrear la fuente detrás de estos algoritmos. Este panorama cambiante de la IA en el cibercrimen genera preocupación entre los expertos en TI, requiere estrategias de defensa avanzadas y puede conducir a cambios significativos en la forma en que los gobiernos y las empresas abordan la ciberseguridad.

    Ciberataques automatizados usando contexto de IA

    La inteligencia artificial y el aprendizaje automático mantienen la capacidad de automatizar casi todas las tareas, incluido el aprendizaje a partir de comportamientos y patrones repetitivos, lo que los convierte en una herramienta poderosa para identificar vulnerabilidades en un sistema. Más importante aún, la IA y el ML dificultan identificar a una persona o entidad detrás de un algoritmo.

    En 2022, durante el Subcomité de Ciberseguridad de las Fuerzas Armadas del Senado de EE. UU., Eric Horvitz, director científico de Microsoft, se refirió al uso de inteligencia artificial (IA) para automatizar ciberataques como “IA ofensiva”. Destacó que es difícil determinar si un ciberataque está impulsado por IA. De manera similar, el aprendizaje automático (ML) se está utilizando para ayudar en los ciberataques; El aprendizaje automático se utiliza para aprender palabras y estrategias de uso común en la creación de contraseñas para piratearlas mejor. 

    Una encuesta realizada por la empresa de ciberseguridad Darktrace descubrió que los equipos de gestión de TI están cada vez más preocupados por el uso potencial de la IA en los delitos cibernéticos, y el 96 por ciento de los encuestados indicaron que ya están investigando posibles soluciones. Los expertos en seguridad de TI perciben un cambio en los métodos de ciberataque, desde el ransomware y el phishing hasta el malware más complejo que es difícil de detectar y desviar. El posible riesgo del ciberdelito impulsado por la IA es la introducción de datos corruptos o manipulados en los modelos de aprendizaje automático.

    Un ataque de aprendizaje automático puede afectar el software y otras tecnologías que se están desarrollando actualmente para respaldar la computación en la nube y la inteligencia artificial de vanguardia. Los datos de capacitación insuficientes también pueden reforzar los sesgos de los algoritmos, como etiquetar incorrectamente a grupos minoritarios o influir en la actuación policial predictiva para centrarse en comunidades marginadas. La Inteligencia Artificial puede introducir información sutil pero desastrosa en los sistemas, lo que puede tener consecuencias duraderas.

    Impacto disruptivo

    Un estudio realizado por investigadores de la Universidad de Georgetown sobre la cadena cibernética (una lista de verificación de tareas realizadas para lanzar un ciberataque exitoso) mostró que las estrategias ofensivas específicas podrían beneficiarse del ML. Estos métodos incluyen el spearphishing (estafas por correo electrónico dirigidas a personas y organizaciones específicas), la identificación de debilidades en las infraestructuras de TI, la entrega de código malicioso en las redes y el evitar la detección por parte de los sistemas de ciberseguridad. El aprendizaje automático también puede aumentar las posibilidades de éxito de los ataques de ingeniería social, en los que se engaña a las personas para que revelen información confidencial o realicen acciones específicas, como transacciones financieras. 

    Además, la cadena de eliminación cibernética puede automatizar algunos procesos, entre ellos: 

    • Vigilancia extensiva: escáneres autónomos que recopilan información de las redes objetivo, incluidos sus sistemas conectados, defensas y configuraciones de software. 
    • Amplio uso de armas: herramientas de IA que identifican debilidades en la infraestructura y crean código para infiltrarse en estas lagunas. Esta detección automatizada también puede apuntar a ecosistemas u organizaciones digitales específicos. 
    • Entrega o piratería: herramientas de IA que utilizan la automatización para ejecutar la suplantación de identidad (spearphishing) y la ingeniería social para dirigirse a miles de personas. 

    A partir de 2023, escribir código complejo todavía está dentro del ámbito de los programadores humanos, pero los expertos creen que no pasará mucho tiempo antes de que las máquinas también adquieran esta habilidad. AlphaCode de DeepMind es un ejemplo destacado de sistemas de inteligencia artificial tan avanzados. Ayuda a los programadores a analizar grandes cantidades de código para aprender patrones y generar soluciones de código optimizadas.

    Implicaciones de los ciberataques automatizados utilizando IA

    Las implicaciones más amplias de los ciberataques automatizados que utilizan IA pueden incluir: 

    • Empresas que profundizan sus presupuestos de defensa cibernética para desarrollar soluciones cibernéticas avanzadas para detectar y detener ataques cibernéticos automatizados.
    • Los ciberdelincuentes estudian los métodos de ML para crear algoritmos que pueden invadir en secreto los sistemas corporativos y del sector público.
    • Aumento de los incidentes de ciberataques que están bien orquestados y se dirigen a varias organizaciones a la vez.
    • Software de inteligencia artificial ofensivo utilizado para tomar el control de armas militares, máquinas y centros de comando de infraestructura.
    • Software ofensivo de inteligencia artificial utilizado para infiltrarse, modificar o explotar los sistemas de una empresa para derribar infraestructuras públicas y privadas. 
    • Algunos gobiernos podrían reorganizar las defensas digitales de su sector privado nacional bajo el control y la protección de sus respectivas agencias nacionales de ciberseguridad.

    Preguntas a considerar

    • ¿Cuáles son las otras posibles consecuencias de los ciberataques habilitados por IA?
    • ¿De qué otra forma pueden prepararse las empresas para este tipo de ataques?

    Referencias de información

    Se hizo referencia a los siguientes enlaces populares e institucionales para esta perspectiva:

    Centro de Seguridad y Tecnología Emergente Automatización de ataques cibernéticos