Veículos do exército israelense saindo de Gaza em 3 de março de 2024AFP
Publicado 03/03/2024 11:37
O Exército israelense afirma que a inteligência artificial (IA) o ajuda a eliminar de forma mais precisa os membros do Hamas, mas o número crescente de mortes de civis em Gaza leva alguns especialistas a questionarem essa eficácia.

"Ou a IA é tão boa quanto se afirma e o Exército israelense não se importa com danos colaterais, ou não é", disse Toby Walsh, chefe do Instituto de Inteligência Artificial da Universidade de Nova Gales do Sul, na Austrália, à AFP.

O Ministério da Saúde administrado pelo Hamas em Gaza disse neste domingo (3) que mais de 30.400 pessoas morreram na Faixa de Gaza desde o início da guerra em 7 de outubro, a grande maioria delas civis.

O ministério não especificou quantos membros do Hamas foram incluídos no total, mas Israel disse no início de fevereiro que as suas forças "eliminaram 10.000 terroristas" desde o início do conflito em outubro.

O Exército israelense afirmou à AFP que não comentaria os seus sistemas de algoritmos para atingir alvos potenciais. No entanto, lembrou que "ataca apenas alvos militares e toma medidas viáveis para mitigar os danos aos civis na medida do possível".

"Ataques precisos"
Israel ganhou destaque com o uso de IA após uma série de ataques durante 11 dias em Gaza em maio de 2021.

Aviv Kochavi, chefe militar durante essa crise, disse ao site Ynet no ano passado que eles usaram sistemas de IA para gerar "100 novos alvos todos os dias".

"Para colocar isto em perspectiva, no passado produzimos 50 alvos em Gaza em um ano", disse ele.

Semanas depois dos ataques de 7 de outubro, um blog no site do Exército israelense revelou que em apenas 27 dias os seus sistemas de identificação de alvos conseguiram detectar mais de 12.000, graças a um algoritmo de IA chamado Gospel.

Um funcionário não identificado afirmou que o sistema identificava alvos "para ataques precisos à infraestrutura associada ao Hamas, infligindo grandes danos ao inimigo e danos mínimos aos não envolvidos".

Fontes militares anônimas disseram à revista investigativa +972 em novembro que o sistema estava criando uma "fábrica de assassinatos em massa".

As fontes disseram que o Gospel processa grandes quantidades de dados mais rápido do que "dezenas de milhares de oficiais de inteligência" e identifica, em tempo real, locais que provavelmente serão casas de supostos militantes.

No entanto, as fontes não forneceram detalhes sobre os dados inseridos no sistema ou os critérios utilizados para determinar os alvos.

"Dados duvidosos"
Vários especialistas disseram à AFP que o Exército provavelmente está alimentando o sistema com imagens de drones, publicações em redes sociais e outras atividades online, informações de espiões no terreno, localizações de celulares e outros dados de vigilância.

Assim que o sistema identifica um alvo, pode então utilizar dados populacionais provenientes de fontes oficiais para estimar a probabilidade dos danos civis.

Mas Lucy Suchman, professora de antropologia da ciência e tecnologia na Universidade de Lancaster, no Reino Unido, disse que a ideia de que mais dados produziriam alvos melhores é falsa.

Os algoritmos são treinados para encontrar padrões nos dados que correspondam a uma determinada designação, explicou.

No conflito de Gaza, isso poderia ser "afiliado ao Hamas", portanto qualquer padrão nos dados que coincida com um afiliado previamente identificado geraria um novo alvo.

"Em outras palavras, mais dados ruins equivalem a sistemas piores", afirmou.

Humanos no controle
Os israelenses não são a primeira força de combate a implantar um sistema automatizado de identificação de alvos no campo de batalha.

Durante a Guerra do Golfo de 1990-91, o Exército dos EUA trabalhou com algoritmos para melhorar os seus sistemas de identificação.

Para a campanha de bombardeio do Kosovo em 1999, a Otan começou a usar algoritmos para calcular potenciais vítimas civis. E durante a guerra contra o terrorismo, o Exército dos EUA contratou a empresa secreta de dados Palantir para fornecer análises de batalha no Afeganistão.

Os defensores da tecnologia insistiram que ela reduzirá as mortes de civis. Mas alguns analistas militares duvidam que a tecnologia seja suficientemente avançada para ser confiável.

Noah Sylvia, em um blog do think tank de defesa do Reino Unido RUSI, publicado no início de fevereiro, escreveu que os humanos ainda deveriam verificar cada resultado.

O Exército israelense era "um dos mais avançados tecnologicamente e integrados do mundo", disse.

Mas acrescentou: "As chances de até mesmo o Exército israelense usar IA com tal grau de sofisticação e autonomia são baixas".
Publicidade
Leia mais