Armas autônomas (killer robots): por que a ONU tenta regular

Nos conflitos armados atuais, como nas guerras entre Rússia e Ucrânia e nas ofensivas conjuntas de Estados Unidos e Israel contra o Irã, o uso de inteligência artificial no campo de batalha tem ganhado destaque. A tecnologia está no planejamento de ataques e em armas autônomas.

Também conhecidos como “killer robots”, os armamentos avançados incluem, principalmente, treinados em amplos conjuntos de dados.

A tecnologia diferencia, em milissegundos, civis de soldados, carros de equipamentos de guerra e daí por diante.

Decisões sem intervenção humana

Nos armamentos com IA, os modelos de linguagem fazem as avaliações de ameaças. Eles consideram aspectos como o perigo representado pelo alvo, as movimentações e o valor da ação, entre outros, para decidir sobre o ataque.

Depois de analisar tudo isso, em segundos, a IA decide sem qualquer intervenção humana. Além da rapidez, outro diferencial é a ausência de julgamento ético, o que representa um grande perigo, na visão dos críticos.

Riscos para civis e conflitos armados

Na guerra moderna, o uso de armas com capacidade de decidir autonomamente oferece vantagens estratégicas. No entanto, esses sistemas levantam preocupações quanto à segurança, pois assim como os bots convencionais, a tecnologia de combate também pode errar.

Se a IA alucinar durante a missão, existe a chance de confundir alvos, mirando em civis ou trocando armazéns de armas por hospitais ou escolas, lançando mísseis no prédio errado. A tragédia pode ser maior se envolver enxames de drones autônomos.

enxame-de-drones-voando-pelo-ceu
Os enxames de drones autônomos tornam a tecnologia ainda mais poderosa. (Imagem: onurdongel/Getty Images)

Esses grupos de aeronaves atingem diversos alvos simultaneamente. Segundo a ONU, isso fere os princípios de proporcionalidade e precaução inseridos no Direito Internacional Humanitário (DHI), que limita os efeitos dos conflitos armados.

Além disso, há outro perigo a se considerar: a segurança cibernética. Caso invasores acessem sistemas controlados por adversários, poderiam reprogramar as armas, fazendo-as se voltarem contra os operadores originais.

Por que a ONU tenta regular os killer robots

Um dos principais opositores dos robôs assassinos no campo de batalha, o Secretário-Geral da ONU, António Guterres, já abordou os riscos da tecnologia em várias ocasiões. Em um relatório de 2025, ele apontou a incapacidade da IA de respeitar o princípio da distinção como um dos maiores problemas.

Conforme o chefe das Nações Unidas, a inteligência artificial é propensa a produzir resultados distorcidos ao absorver vieses. Na hora de distinguir entre civis e militares, o gênero, a raça e a idade são analisados pelos sistemas autônomos, podendo levar a decisões equivocadas.

Por isso, Guterres defende o controle humano para evitar erros e pediu a proibição das ferramentas. “Não há lugar para sistemas de armas autônomas letais em nosso mundo. Máquinas que possuem o poder e a capacidade de tirar vidas humanas sem controle humano devem ser proibidas pelo direito internacional”, declarou.

Debates internacionais sobre regulamentação

Desde meados da década passada, membros da ONU têm considerado regulamentar LAWS. Os debates acontecem no âmbito da Convenção sobre Certas Armas Convencionais (CCW), que trata da possibilidade de violação do direito humanitário.

Iniciativas como “Pacto para o Futuro” e “Stop Killer Robots” são algumas das mais recentes. Porém, as conversas ainda não avançaram, devido a dúvidas sobre o que caracteriza sistemas autônomos e como funcionaria o controle humano mais significativo.

Guterres alertou sobre a necessidade de urgência da regulamentação, diante do uso cada vez maior da tecnologia na guerra moderna. “O tempo está se esgotando para tomarmos medidas preventivas”, ressaltou.

antonio-guterres-onu.jpg
António Guterres é um dos maiores opositores dos armamentos com IA. (Imagem: Michael M. Santiago/GettyImages)

Desafios éticos e legais no uso de Killer robots

De acordo com a ONU, o primeiro caso de armas autônomas atacando pessoas sem envolvimento com guerras ocorreu em 2021. Na ocasião, civis se tornaram alvo de um drone sem operador humano na Líbia, incidente que acendeu, de vez, o alerta em relação aos perigos dessa tecnologia.

Em um caso como esse, quem seria o responsável pelo erro da máquina? O desenvolvedor, que criou o código do sistema, a fabricante da aeronave não tripulada ou o comando militar que decidiu implementar o mecanismo?

Nas discussões sobre a regulamentação internacional das armas que funcionam de maneira autônoma, essa é uma das dúvidas que dificultam a criação de leis rígidas. Países como Nova Zelândia e Áustria estão entre os que defendem regras rigorosas, incluindo a proibição total.

Por outro lado, EUA, China, Rússia e Israel opõem-se às restrições, argumentando que os armamentos com IA serão cruciais nos conflitos futuros.

Onde essas tecnologias já são utilizadas

Mesmo com os riscos das armas autônomas na guerra, vários países desenvolveram ou implementaram essas máquinas. O drone turco Kargu-2, que opera em modo autônomo buscando e atacando alvos, é um dos exemplos. Ele teria sido usado no conflito na Líbia, citado acima.

Também há o drone russo ZALA KYB, funcionando sem auxílio humano direto, e o israelense Harop, capaz de voar por horas aguardando para atacar. Outro destaque é o Boeing MQ-28 Ghost Bat, que atua ao lado de outras aeronaves militares e deve ser adotado pela Austrália.

drone-autonomo-em-voo
Em meio aos debates sobre ética na guerra, a tecnologia é usada nos conflitos atuais. (Imagem: Olena Bartienieva/Getty Images)

Atualmente, o conflito entre Rússia e Ucrânia se tornou o maior campo de teste da nova tecnologia bélica. Relatórios sugerem que a maioria das aeronaves não tripuladas ucranianas têm algum nível de automação, atraindo o interesse dos EUA, com as tropas russas também desenvolvendo sistemas inovadores.

Sabia que os drones autônomos podem ser úteis, ainda, para a astronomia? Descubra como eles ajudam a procurar meteoritos que caem na Terra.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima