Inteligência artificial ajuda no processo de disseminação de notícias falsas ou tendenciosasReprodução: redes sociais

A inteligência artificial (IA), que permite gerar milhões de mensagens em poucas horas e falsas discussões em fóruns, multiplica a um custo menor o impacto da desinformação e das operações de interferência estrangeira, alertam os especialistas.

Em plena eleição na União Europeia, “há uma massificação generalizada” de conteúdos provenientes do exterior e a IA “é uma nova etapa na cadeia de automatização destas publicações [que] permite massificar a produção”, explica à AFP Valentin Chatelet, do laboratório de análise digital do Atlantic Council (DFRLab).

Segundo dados do coletivo Antibot4Navalny, que rastreia operações de influência digital ligadas à Rússia, milhares de bots (contas automatizadas) são usados diariamente para propaganda pró-Rússia na rede social X.
Após o massacre em uma casa de shows em Moscou em 22 de março, o grupo contou mais de 2 milhões de mensagens no X em menos de 24 horas acusando a Ucrânia e as potências ocidentais de terem facilitado o ataque e a fuga dos agressores.

Esta hipótese foi inicialmente desenvolvida pelas próprias autoridades russas, apesar de o ataque ter sido reivindicado pelo grupo Estado Islâmico (EI).

“Durante cada episódio [evento de importância global], as operações diárias regulares são interrompidas: todos os bots (...) são totalmente dedicados ao episódio em questão”, observou Antibot4Navalny.

ChatGPT
A OpenAI, criadora do ChatGPT, indicou no final de maio que grupos de influência russos, chineses, iranianos e uma “empresa comercial israelense” usaram seus programas para tentar manipular a opinião pública em outros países.
O conteúdo produzido cobria uma “ampla gama de tópicos, incluindo a invasão da Ucrânia, o conflito de Gaza (ou) as eleições indianas” e incluía “principalmente texto e por vezes imagens, como desenhos satíricos”, segundo a OpenAI.

A IA pode, por exemplo, traduzir um artigo falso em vários idiomas e publicá-lo automaticamente em uma infinidade de contas e páginas.

Segundo Antibot4Navalny, a IA também permite que os bots não sejam detectados pelos órgãos de moderação das redes sociais, graças à multiplicação de mensagens com conteúdos semelhantes, mas não idênticos.

Outra tática consiste na difusão em massa de artigos de imprensa reais, mas acompanhados com mensagens políticas.

“Como usuário, pode ter a impressão de que estes pontos de vista são apoiados majoritariamente por pessoas radicadas” no seu país, “quando não é necessariamente o caso”, revela Alexandre Alaphilippe, diretor-executivo da ONG europeia EU DisinfoLab.
“Você pode ir a um fórum, ver pessoas conversando entre si, mas na verdade toda aquela conversa foi gerada pela IA”, acrescenta.

Especialistas, serviços de inteligência e governos ocidentais consideram que a Rússia é o país mais ativo em termos de interferência no exterior através da Internet, embora também apontem para países como Azerbaijão, Irã e China.

Diversas operações vieram à tona nos últimos meses, como a Doppelgänger (imitação da mídia ocidental para espalhar boatos) ou a Olympiya, dirigida contra os Jogos Olímpicos de Paris 2024.

A longo prazo
Alexandre Alaphilippe considera que estas operações “não vão parar no dia 9 de junho”, quando terminam as eleições legislativas da UE, uma vez que “estão desenhadas para durar no longo prazo”.

As eleições presidenciais dos EUA, em 5 de novembro, também serão um acontecimento crucial. Segundo dados do Antibot4Navalny, bots publicaram no fim de maio, no X, ao menos dois milhões de mensagens que criticam o presidente e candidato democrata à reeleição, Joe Biden, em pleno julgamento contra seu antecessor e rival republicano, Donald Trump.

“O que torna estas eleições — e as que estão por vir nos Estados Unidos — únicas, é que ocorrem em um momento em que é do interesse estratégico da Rússia enfraquecer o apoio ocidental à Ucrânia”, afirma John Kennedy, pesquisador de defesa e segurança do centro de estudos Rand.