Alguns drones de guerra já utilizam inteligência artificalReprodução
Recentemente, dois meios de comunicação independentes israelenses acusaram o governo de Israel de ter usado IA para identificar alvos de ataques em Gaza, o que levou o secretário-geral da ONU, Antonio Gutérres, a afirmar na sexta-feira que está "profundamente perturbado".
Para além do programa acusado, Lavender, e da investigação jornalística que as autoridades israelenses refutam, estes são os principais pontos sobre um desenvolvimento tecnológico que mudou a forma de travar guerras.
Três principais usos
Esta ferramenta também atua em nível tático, como no caso de enxame de drones, uma técnica que parece ter avançado significativamente na China. No futuro, cada dispositivo poderá se comunicar com os demais e agir em conjunto sobre um alvo previamente definido.
A nível estratégico, a IA permite modelar campos de batalha, uma hipótese de resposta a um ataque e até a utilização ou não de armas atômicas.
Pensar mais rápido
"O tempo de reação é reduzido significativamente. O que um ser humano faz em uma hora, [a IA] faz por você em poucos segundos", afirmou.
Um exemplo disso é o Domo de Ferro, que intercepta projéteis aéreos em Israel, que graças a esta ferramenta é capaz de detectar a chegada de um, determinar o seu tipo e destino e até os danos que poderá causar.
Logo, "o operador (...) tem um minuto para decidir se neutraliza ou não o foguete", explica Laure de Roucy-Rochegonde, do Instituto Francês de Relações Internacionais (IFRI).
O problema, segundo ela, é que "muitas vezes" quem controla o sistema é "um jovem que está cumprindo o serviço militar, que tem 20 anos e não conhece muito bem o direito da guerra. Você tem que se perguntar até que ponto o seu controle é efetivo", acrescenta.
Questão ética
O homem "toma uma decisão que consiste em uma recomendação formulada pela máquina, mas sem saber em que fatos a máquina a baseou", explica Laure de Roucy-Rochegonde.
"Mesmo que seja um operador humano que aperte o botão, esta falta de conhecimento ou incompreensão, bem como o fator rapidez, fazem com que sua responsabilidade na tomada de decisão seja bastante limitada", acrescentou.
"Não sabemos necessariamente o que (a IA) fez ou pensou, ou como chegou a esse resultado", adiciona Ulrike Franke, do Conselho Europeu de Relações Exteriores (ECFR).
Ucrânia como teste
Desde que a Rússia invadiu o país em fevereiro de 2022, os dois lados "desenvolveram soluções de IA para tarefas como inteligência geoespacial, operações não tripuladas, treino militar e guerra cibernética", escreve Vitali Goncharuk do Observatório de IA de Defesa da Universidade Helmut Schmidt de Hamburgo.
Escalada e risco nuclear
Em janeiro, pesquisadores de quatro institutos e universidades americanas publicaram um estudo, utilizando simulações de conflitos, de cinco grandes modelos de linguagem.
Segundo as conclusões, estes modelos "tendem a desenvolver uma dinâmica de corrida armamentista, que leva a conflitos mais significativos e, em casos raros, à mobilização de armas nucleares", afirmam.
As grandes potências estão preocupadas em não perder para seus adversários e atualmente não parecem querer regulamentar toda esta tecnologia.
O presidente americano, Joe Biden, e seu homólogo chinês, Xi Jinping, concordaram em novembro que seus respectivos especialistas examinariam a questão. A ONU aborda o assunto há dez anos, mas sem grandes resultados.
"Há debates sobre o que deveria ser feito na indústria civil de IA. Mas muito poucos quando se trata da indústria de defesa", observa Alessandro Accorsi.
Os comentários não representam a opinião do jornal e são de responsabilidade do autor.