Алгоритмические боевые действия: роботы-убийцы — новое лицо современной войны?

ИЗОБРАЖЕНИЕ КРЕДИТ:
Кредит изображения
Istock

Алгоритмические боевые действия: роботы-убийцы — новое лицо современной войны?

Алгоритмические боевые действия: роботы-убийцы — новое лицо современной войны?

Текст подзаголовка
Сегодняшнее оружие и боевые системы могут вскоре превратиться из простого оборудования в автономные объекты.
    • Автор:
    • Имя автора
      Квантумран Форсайт
    • 10 января 2023

    Страны продолжают исследовать боевые системы с искусственным интеллектом (ИИ), несмотря на то, что в гражданском обществе усилилось сопротивление смертоносному автономному оружию. 

    Алгоритмический контекст ведения боевых действий

    Машины используют алгоритмы (набор математических инструкций) для решения задач, имитирующих человеческий интеллект. Алгоритмические боевые действия включают в себя разработку систем на базе искусственного интеллекта, которые могут автономно управлять оружием, тактикой и даже целыми военными операциями. Машины, автономно управляющие системами вооружения, открыли новые дебаты о роли автономных машин в войне и ее этических последствиях. 

    Согласно международному гуманитарному праву, любая машина (независимо от того, вооружена она или нет) должна пройти тщательную проверку перед развертыванием, особенно если она предназначена для причинения вреда людям или зданиям. Это распространяется на разрабатываемые системы искусственного интеллекта, которые в конечном итоге станут самообучающимися и самокорректирующими, что может привести к тому, что эти машины заменят управляемые человеком системы вооружения в военных операциях.

    В 2017 году Google получила резкую реакцию со стороны своих сотрудников, когда выяснилось, что компания работает с Министерством обороны США над разработкой систем машинного обучения для использования в вооруженных силах. Активисты были обеспокоены тем, что создание, возможно, саморазвивающихся военных роботов может нарушить гражданские свободы или привести к ложному распознаванию целей. Использование технологии распознавания лиц в вооруженных силах расширилось (уже в 2019 г.) для создания базы данных целевых террористов или лиц, представляющих интерес. Критики выразили обеспокоенность тем, что принятие решений на основе ИИ может привести к катастрофическим результатам, если вмешательство человека будет скомпрометировано. Однако большинство членов Организации Объединенных Наций выступают за запрет смертоносных автономных систем вооружения (АССО) из-за возможности того, что эти организации могут выйти из-под контроля.

    Разрушительное воздействие

    Падение показателей набора в армию, наблюдаемое во многих западных странах — тенденция, которая усилилась в 2010-х годах, — является ключевым фактором, способствующим внедрению автоматизированных военных решений. Еще одним фактором, стимулирующим внедрение этих технологий, является их потенциал для оптимизации и автоматизации операций на поле боя, что приводит к повышению эффективности ведения боевых действий и снижению эксплуатационных расходов. Некоторые заинтересованные стороны военной промышленности также заявляют, что военные системы и алгоритмы, управляемые ИИ, могут снизить человеческие жертвы, предоставляя точную информацию в режиме реального времени, которая может повысить точность развернутых систем, чтобы они поражали намеченные цели. 

    Если на театрах военных действий по всему миру будет развернуто больше систем военного оружия, управляемых ИИ, в зонах конфликтов может быть развернуто меньше человеческого персонала, что снизит военные потери на театрах военных действий. Создатели управляемого ИИ оружия могут включать в себя такие контрмеры, как аварийные выключатели, чтобы эти системы можно было немедленно отключить в случае возникновения ошибки.  

    Последствия управляемого ИИ оружия 

    Более широкие последствия развертывания автономных вооружений военными во всем мире могут включать:

    • Автономное вооружение развертывается вместо пехотинцев, что снижает затраты на ведение войны и потери солдат.
    • Более широкое применение военной силы отдельными странами с более широким доступом к автономным или механизированным средствам, поскольку сокращение или устранение потерь в войсках может свести к минимуму сопротивление внутренней общественности страны ведению войны в чужих землях.
    • Эскалация оборонных бюджетов между странами для военного превосходства ИИ в будущих войнах может зависеть от скорости принятия решений и сложности будущего оружия и вооруженных сил, управляемых ИИ. 
    • Расширение партнерства между людьми и машинами, когда данные будут мгновенно предоставляться людям-солдатам, что позволит им корректировать боевую тактику и стратегию в режиме реального времени.
    • Страны все чаще используют ресурсы своего частного технологического сектора для укрепления своих защитных возможностей ИИ. 
    • В Организации Объединенных Наций продвигается один или несколько глобальных договоров, запрещающих или ограничивающих использование автономного оружия. Такая политика, скорее всего, будет проигнорирована высшими военными мира.

    Вопросы для комментариев

    • Как вы думаете, принесут ли алгоритмические боевые действия пользу людям, зачисленным в армию?
    • Считаете ли вы, что системам искусственного интеллекта, разработанным для ведения войны, можно доверять, или их следует ограничить или полностью запретить?

    Ссылки на статистику

    Для этого понимания использовались следующие популярные и институциональные ссылки:

    Международный комитет Красного Креста Смещение нарратива: не оружие, а технологии ведения войны