Obstáculos freiam a guerra totalmente automatizada

Brasília, 8 de fevereiro de 2026 — A combinação de drones armados, sensores de alta precisão e algoritmos de inteligência artificial faz parecer inevitável um cenário em que combates ocorram sem intervenção humana. Na prática, no entanto, a automatização total dos conflitos esbarra em limites tecnológicos, políticos e éticos que, por enquanto, mantêm o ser humano indispensável nas decisões de vida ou morte.

Contexto ambíguo desafia as máquinas

Sistemas autônomos mostram desempenho elevado quando a tarefa é clara e as variáveis são previsíveis. Conflitos reais, porém, costumam apresentar sinais contraditórios, objetivos que mudam em questão de segundos e pressões políticas que não podem ser quantificadas apenas com números. A inteligência artificial consegue analisar dados, mas ainda é incapaz de captar intenções humanas — elemento decisivo na distinção entre ameaça real e comportamento apenas suspeito.

Sem compreender nuances, uma plataforma automática corre o risco de interpretar ruído como provocação hostil ou confundir uma falha de sensor com ataque deliberado. Os exemplos mais citados por especialistas incluem:

  • classificar um civil em fuga como combatente ativo;
  • tratar uma manobra isolada como início de escalada militar;
  • responder a interferência eletrônica não intencional como se fosse ofensiva planejada.

Velocidades incompatíveis geram risco de escalada

Algoritmos tomam decisões na escala de milissegundos, enquanto debates políticos, avaliações jurídicas e consultas diplomáticas exigem tempo. Esse descompasso cria o perigo de uma “espiral automática”, em que sucessivas respostas armadas acontecem antes que haja oportunidade de verificar se o primeiro disparo foi mesmo necessário.

Para evitar esse efeito dominó, forças armadas de vários países adotam a diretriz do humano no ciclo: toda ação crítica — disparo de míssil, autorização de ataque ou mudança de alvo — precisa ser confirmada, modificada ou abortada por um operador. O objetivo é preservar a avaliação humana como última barreira contra erros irreversíveis.

Falhas técnicas nunca serão zero

Qualquer sistema complexo está sujeito a defeitos. Sensores podem sofrer danos físicos, receber dados incompletos ou ser alvos de ataques cibernéticos que alterem leituras. Quanto maior o grau de autonomia concedido à máquina, maior o impacto potencial de uma falha isolada. A retirada do operador elimina justamente a camada considerada mais adaptável: o julgamento humano em tempo real, capaz de suspeitar de resultados inconsistentes e solicitar verificação adicional.

Além disso, logística e manutenção permanecem fortemente dependentes de pessoal especializado. Mesmo as aeronaves não tripuladas mais avançadas precisam de inspeção de motores, atualização de softwares e substituição de peças, etapas que não podem ser automatizadas integralmente no campo de batalha.

Guerra eletrônica põe a máquina em xeque

Conflitos modernos deixaram de visar apenas a destruição física de alvos. Um dos focos atuais é enganar os sensores do adversário por meio de interferência, emissão de sinais falsos ou criação de alvos fictícios. Sistemas totalmente automáticos reagem ao que “veem” nos dados; se esses dados forem manipulados, a reação também será. Em contrapartida, operadores humanos costumam desconfiar de leituras improváveis e cruzar informações antes de disparar.

Responsabilidade política não se delega

A cadeia de comando nas forças armadas existe para que decisões irreversíveis possam ser atribuídas a pessoas identificáveis. Delegar o poder letal a um algoritmo abriria lacunas de responsabilidade: quem responderia por um ataque equivocado? Enquanto a guerra continuar sendo fenômeno humano e político, a necessidade de prestação de contas representa um freio à substituição completa dos decisores por código de computador.

Automação total segue vista como risco

A soma de fatores — ambiguidade de contexto, incompatibilidade de tempo entre máquina e diplomacia, possibilidade de falhas técnicas, vulnerabilidade a enganos eletrônicos e exigência de accountability — mantém a guerra totalmente automatizada fora do horizonte imediato. Embora a tecnologia avance a passos largos, a avaliação dominante entre militares e governos é que, neste momento, o custo de abdicar do controle humano superaria qualquer ganho de velocidade ou de precisão que a automação plena pudesse oferecer.

Assim, por mais tentadora que seja a ideia de deixar combates inteiramente nas mãos de processadores velozes e sensores sofisticados, a guerra ainda depende — e deve continuar dependendo — do julgamento humano para equilibrar força, prudência e responsabilidade.

Publicar comentário