Автоматизированные кибератаки с использованием ИИ: когда машины становятся киберпреступниками

ИЗОБРАЖЕНИЕ КРЕДИТ:
Кредит изображения
Istock

Автоматизированные кибератаки с использованием ИИ: когда машины становятся киберпреступниками

Автоматизированные кибератаки с использованием ИИ: когда машины становятся киберпреступниками

Текст подзаголовка
Хакеры используют возможности искусственного интеллекта (ИИ) и машинного обучения (МО), чтобы сделать кибератаки более эффективными и смертоносными.
    • Автор:
    • Имя автора
      Квантумран Форсайт
    • 30 сентября, 2022

    Сводка статистики

    Искусственный интеллект (ИИ) и машинное обучение (МО) все чаще используются в сфере кибербезопасности, как для защиты систем, так и для осуществления кибератак. Их способность учиться на данных и поведении позволяет им выявлять уязвимости системы, но также затрудняет отслеживание источника этих алгоритмов. Эта развивающаяся ситуация с использованием ИИ в киберпреступности вызывает обеспокоенность среди ИТ-экспертов, требует передовых стратегий защиты и может привести к значительным изменениям в подходах правительств и компаний к кибербезопасности.

    Автоматизированные кибератаки с использованием контекста ИИ

    Искусственный интеллект и машинное обучение сохраняют способность автоматизировать практически все задачи, включая обучение на повторяющемся поведении и шаблонах, что делает их мощным инструментом для выявления уязвимостей в системе. Что еще более важно, искусственный интеллект и машинное обучение затрудняют определение человека или организации, стоящей за алгоритмом.

    В 2022 году на заседании Подкомитета по кибербезопасности Сената США по кибербезопасности Эрик Хорвиц, главный научный сотрудник Microsoft, назвал использование искусственного интеллекта (ИИ) для автоматизации кибератак «наступательным ИИ». Он подчеркнул, что трудно определить, управляется ли кибератака искусственным интеллектом. Аналогичным образом, машинное обучение (МО) используется для помощи в кибератаках; Машинное обучение используется для изучения часто используемых слов и стратегий создания паролей, чтобы лучше их взломать. 

    Опрос, проведенный фирмой по кибербезопасности Darktrace, показал, что ИТ-руководители все больше обеспокоены потенциальным использованием ИИ в киберпреступлениях, при этом 96 процентов респондентов указали, что они уже изучают возможные решения. Эксперты по ИТ-безопасности ощущают сдвиг в методах кибератак: от программ-вымогателей и фишинга к более сложным вредоносным программам, которые трудно обнаружить и отразить. Возможный риск киберпреступности с использованием искусственного интеллекта заключается во внедрении поврежденных или манипулируемых данных в модели ОД.

    Атака ML может повлиять на программное обеспечение и другие технологии, которые в настоящее время разрабатываются для поддержки облачных вычислений и периферийного искусственного интеллекта. Недостаток обучающих данных может также усилить предвзятость алгоритмов, например, неправильную маркировку групп меньшинств или влияние на прогнозирующую работу полиции, нацеленную на маргинализированные сообщества. Искусственный интеллект может вносить в системы неуловимую, но катастрофическую информацию, что может иметь долгосрочные последствия.

    Разрушительное воздействие

    Исследование цепочки киберубийств (контрольный список задач, выполняемых для запуска успешной кибератаки), проведенное учеными Джорджтаунского университета, показало, что конкретные наступательные стратегии могут выиграть от ОД. Эти методы включают целевой фишинг (мошенничество с использованием электронной почты, направленное на конкретных людей и организации), выявление слабых мест в ИТ-инфраструктурах, доставку вредоносного кода в сети и избежание обнаружения системами кибербезопасности. Машинное обучение также может увеличить шансы на успех атак социальной инженерии, когда людей обманом заставляют раскрывать конфиденциальную информацию или выполнять определенные действия, такие как финансовые транзакции. 

    Кроме того, цепочка киберубийств может автоматизировать некоторые процессы, в том числе: 

    • Обширное наблюдение — автономные сканеры собирают информацию из целевых сетей, включая их подключенные системы, средства защиты и настройки программного обеспечения. 
    • Обширное вооружение — инструменты ИИ выявляют слабые места в инфраструктуре и создают код для проникновения в эти лазейки. Это автоматическое обнаружение также может быть нацелено на определенные цифровые экосистемы или организации. 
    • Доставка или взлом — инструменты искусственного интеллекта, использующие автоматизацию для целевого фишинга и социальной инженерии для тысяч людей. 

    По состоянию на 2023 год написание сложного кода все еще остается в компетенции людей-программистов, но эксперты полагают, что вскоре машины тоже приобретут этот навык. AlphaCode от DeepMind — яркий пример таких передовых систем искусственного интеллекта. Он помогает программистам анализировать большие объемы кода, изучать шаблоны и генерировать оптимизированные решения для кода.

    Последствия автоматизированных кибератак с использованием ИИ

    Более широкие последствия автоматизированных кибератак с использованием ИИ могут включать: 

    • Компании увеличивают свои бюджеты на киберзащиту для разработки передовых киберрешений для обнаружения и предотвращения автоматизированных кибератак.
    • Киберпреступники изучают методы машинного обучения для создания алгоритмов, которые могут тайно проникать в корпоративные системы и системы государственного сектора.
    • Увеличение числа хорошо спланированных кибератак, направленных сразу на несколько организаций.
    • Наступательное программное обеспечение ИИ, используемое для захвата контроля над военным оружием, машинами и командными центрами инфраструктуры.
    • Наступательное программное обеспечение искусственного интеллекта, используемое для проникновения, изменения или использования систем компании для разрушения общедоступных и частных инфраструктур. 
    • Некоторые правительства потенциально реорганизуют цифровую защиту своего внутреннего частного сектора под контролем и защитой своих соответствующих национальных агентств кибербезопасности.

    Вопросы для рассмотрения

    • Каковы другие потенциальные последствия кибератак с использованием ИИ?
    • Как еще компании могут подготовиться к таким атакам?

    Ссылки на статистику

    Для этого понимания использовались следующие популярные и институциональные ссылки:

    Центр безопасности и новейших технологий Автоматизация кибератак