Combate algorítmico: os robôs assassinos são a nova face da guerra moderna?

CRÉDITO DE IMAGEM:
Crédito da imagem
iStock

Combate algorítmico: os robôs assassinos são a nova face da guerra moderna?

Combate algorítmico: os robôs assassinos são a nova face da guerra moderna?

Texto do subtítulo
As armas e os sistemas de guerra de hoje podem em breve evoluir de mero equipamento para entidades autônomas.
    • Autor:
    • Nome do autor
      Previsão Quantumrun
    • 10 de janeiro de 2023

    Os países continuam a investigar sistemas de guerra com inteligência artificial (IA), embora tenha aumentado a resistência na sociedade civil contra armas letais e autónomas. 

    Contexto algorítmico de combate

    As máquinas usam algoritmos (um conjunto de instruções matemáticas) para resolver problemas que imitam a inteligência humana. O combate algorítmico envolve o desenvolvimento de sistemas alimentados por IA que podem gerenciar de forma autônoma armas, táticas e até mesmo operações militares inteiras. As máquinas que controlam autonomamente os sistemas de armas abriram novos debates sobre o papel que as máquinas autónomas devem desempenhar na guerra e as suas implicações éticas. 

    De acordo com o Direito Internacional Humanitário, qualquer máquina (armada ou não) deve ser submetida a revisões rigorosas antes de ser utilizada, especialmente se se destinar a causar danos a pessoas ou edifícios. Isto estende-se aos sistemas de IA que estão a ser desenvolvidos para eventualmente se tornarem auto-aprendizados e autocorrigíveis, o que pode levar a que estas máquinas substituam os sistemas de armas controlados por humanos em operações militares.

    Em 2017, o Google recebeu forte reação de seus funcionários quando foi descoberto que a empresa estava trabalhando com o Departamento de Defesa dos Estados Unidos para desenvolver sistemas de aprendizado de máquina para uso militar. Os ativistas estavam preocupados com o fato de que a criação de robôs militares possivelmente autoevolutivos pudesse violar as liberdades civis ou levar ao falso reconhecimento de alvos. A utilização da tecnologia de reconhecimento facial nas forças armadas aumentou (já em 2019) para criar uma base de dados de terroristas visados ​​ou pessoas de interesse. Os críticos expressaram preocupações de que a tomada de decisões baseada na IA possa levar a resultados desastrosos se a intervenção humana for comprometida. No entanto, a maioria dos membros das Nações Unidas é a favor da proibição dos sistemas de armas autónomos letais (LAWS) devido à possibilidade de estas entidades se tornarem desonestas.

    Impacto disruptivo

    A queda nos números de recrutamento militar vivida por muitas nações ocidentais – uma tendência que se aprofundou durante a década de 2010 – é um factor-chave que contribui para a adopção de soluções militares automatizadas. Outro factor que impulsiona a adopção destas tecnologias é o seu potencial para agilizar e automatizar as operações no campo de batalha, conduzindo a um aumento da eficiência do combate e à redução dos custos operacionais. Algumas partes interessadas da indústria militar também afirmaram que os sistemas e algoritmos militares controlados pela IA podem reduzir as baixas humanas, fornecendo informações precisas e em tempo real que podem aumentar a precisão dos sistemas implantados para que atinjam os alvos pretendidos. 

    Se mais sistemas de armas militares controlados pela IA forem implantados em teatros de guerra em todo o mundo, menos pessoal humano poderá ser destacado em zonas de conflito, reduzindo as baixas militares em teatros de guerra. Os fabricantes de armas controladas por IA podem incluir contramedidas, como interruptores de interrupção, para que esses sistemas possam ser desativados imediatamente se ocorrer um erro.  

    Implicações das armas controladas por IA 

    Implicações mais amplas das armas autônomas implantadas por militares em todo o mundo podem incluir:

    • Armamento autônomo sendo implantado no lugar de soldados de infantaria, diminuindo os custos de guerra e as baixas de soldados.
    • A maior aplicação da força militar por nações selecionadas com maior acesso a meios autónomos ou mecanizados, uma vez que a redução ou eliminação de baixas de tropas pode minimizar a resistência pública interna de um país à guerra em terras estrangeiras.
    • Uma escalada dos orçamentos de defesa entre as nações para a supremacia militar da IA, à medida que futuras guerras podem ser decididas pela velocidade de tomada de decisões e pela sofisticação das futuras armas e militares controlados pela IA. 
    • Aumentar a parceria entre humanos e máquinas, onde os dados serão fornecidos instantaneamente aos soldados humanos, permitindo-lhes ajustar táticas e estratégias de batalha em tempo real.
    • Os países utilizam cada vez mais os recursos dos seus setores tecnológicos privados para reforçar as suas capacidades de defesa da IA. 
    • Um ou mais tratados globais sendo promovidos nas Nações Unidas proibindo ou limitando o uso de armas autônomas. Tais políticas serão provavelmente ignoradas pelos principais militares do mundo.

    Perguntas para comentar

    • Você acha que a guerra algorítmica beneficiará os humanos alistados nas forças armadas?
    • Você acredita que os sistemas de IA projetados para a guerra são confiáveis ​​ou deveriam ser restringidos ou banidos completamente?

    Referências de insights

    Os seguintes links populares e institucionais foram referenciados para esta percepção:

    Comitê Internacional da Cruz Vermelha Mudando a narrativa: não armas, mas tecnologias de guerra