William Bonner e Renata Vasconcellos foram utilizados em deepfake Reprodução de vídeo

Rio - O apresentador do 'Jornal Nacional', da TV Globo, William Bonner, teve sua voz falsificada para espalhar desinformação. A técnica utilizada para a manipulação leva o nome de "deepfake". Trata-se de imagens falsas, normalmente em vídeo, produzidas por inteligência artificial.
Em outro vídeo falso, a apresentadora Renata Vasconcellos aparece na bancada do 'JN' narrando o resultado de uma falsa pesquisa eleitoral. O vídeo circulou no dia 17 de agosto em redes sociais como WhatsApp, Twitter e Youtube. A edição, no entanto, não é considerada uma deepfake porque não é uma mídia feita por inteligência artificial. Neste caso, foi feita uma edição em que a ordem da fala de Renata foi trocada, dando outro contexto à notícia. A técnica é chamada de shallowfake. O produto é um material com alto poder de se passar por verdadeiro pelo eleitor.
"O da Renata não é deepfake, mas também não é real. É um vídeo com edição simples, tirado do contexto original para dar outro efeito. Ele não é deepfake porque não tem inteligência artificial", afirmou o especialista em deepfake Bruno Sartori.
O companheiro de bancada, William Bonner, foi alvo da deep fake no fim de julho, antes do período eleitoral. A montagem simula uma edição do JN. Na falsa edição, Bonner chama o ex-presidente Lula (PT) e o candidato a vice na chapa, Geraldo Alckmin (PSB), de ladrões. A publicação inseriu a simulação da voz do âncora em um trecho antigo do jornal.
"A do Bonner, sim, foi feita por inteligência artificial com um banco de dados. O sistema utilizado foi o text to speek, processo que transforma texto em fala. Você digita e ele reproduz", conta Sartori.
O pesquisador de sociologia digital Francisco Kerche explica que a deepfake utiliza inteligência artificial para simular a fala e os movimentos de rostos de pessoas, normalmente, de personalidades. O pesquisador da UFRJ conta que o programa é alimentado com um banco de dados sobre a pessoa que se deseja imitar e assim, torna-se possível a criação de vídeos falsos.
"Você tem um conjunto grande de imagens que tenha a pessoa no maior número de ângulos possíveis: falando, abaixando, ficando irritada, tranquila, com várias expressões do rosto. É como se você desse para o computador todas essas imagens e ele vai identificar possibilidades de movimento de rosto", conta.
A diretora executiva da agência de marketing Negócios Acelerados Larissa DeLucca corrobora: "Existe um sistema que é alimentado com fotos, vídeos e áudios e esse sistema consegue reproduzir como a pessoa se movimenta e fala". É possível projetar em um vídeo a imagem da pessoa que se quer simular.
A técnica surgiu em aplicações pornográficas. Este fenômeno começou em 2017, quando rostos de atrizes pornô passaram a ser substituídos sem consentimento pelos de estrelas internacionais como Scarlett Johansson e Emma Watson.
Para além do uso pornográfico e político, a técnica também pode colocar pessoas em situações incriminatórias ou auxiliar golpistas. "Eu posso gravar um vídeo e usar um programa para trocar a imagem do meu rosto pelo de outra pessoa e colocá-la cometendo um crime”, exemplifica Larissa.
Obama foi o primeiro político a ter a imagem utilizada por uma deepfake - AFP/MONEY SHARMA
Obama foi o primeiro político a ter a imagem utilizada por uma deepfakeAFP/MONEY SHARMA
O primeiro uso político das deepfakes foi aplicado na imagem do ex-presidente dos Estados Unidos Barack Obama. Em 2018, o cineasta Jordan Peele publicou um vídeo em que Obama supostamente chamava Donald Trump de "um imbecil" durante um pronunciamento. O ex-presidente americano nunca declarou isso publicamente, mas foi feita uma simulação na qual a fala de Jordan Peele foi aplicada na imagem do ex-presidente e modulada na voz de Obama.
Riscos políticos da deepfake
Kerche ressalta que este tipo de conteúdo costuma circular fora do escopo da imprensa e de agências de checagem. "Quando um vídeo desse vai pra uma grande plataforma, fica exposto a agências de checagem. O risco é quando circula em um submundo, como no Telegram e WhatsApp”, alerta.
A especialista em marketing político Larissa DeLucca também aponta outro prejuízo da disseminação de deepfakes: o uso político tem como objetivo manipular as massas para alcançar determinada agenda. Assim, um grupo político obtém vantagens eleitorais não por suas propostas, mas pelo ódio contra os adversários.
"Este tipo de conteúdo está associado a notícias falsas. A motivação é gerar cisões e criar discursos de ódio. Induzir emoção, sentimento de revolta, de luta, em um grupo específico", explica. Especialista em tecnologia e segurança, Larissa ressalta que o cérebro humano toma decisões a partir da emoção, não da razão. Por isso, as deep fakes podem influenciar os eleitores mesmo que eles descubram posteriormente que se tratava de uma montagem.
"O problema desse tipo de tecnologia é que cria um descrédito com o que é mais básico. A gente é acostumado a acreditar nos nossos olhos, por isso as pessoas se apropriam da emoção que lhes foi provocada no vídeo", pontua.
Como se prevenir
A tecnologia das deepfakes, pontua Francisco Kerche, tem se desenvolvido e se tornado mais acessível na medida que as pessoas aumentam os dados disponíveis, como vídeos, fotos e áudios, nas redes sociais.
"A quantidade de imagens que as pessoas têm na internet e a própria inteligência artificial têm avançado muito. Um exemplo é o Face Swap, um aplicativo que faz troca e mudanças nos rostos de usuário. Isso é inteligência artificial. É um deep fake simples", exemplifica.
Apesar de serem ultrarrealistas, o pesquisador dá algumas dicas que podem ser úteis para desmascarar uma deep fake. Trata-se da observação de áreas do rosto que costumam ser mais expressivas na realidade e que podem ficar artificiais nas deepfakes.
Observe se:
. Bochechas e testas estão muito lisas ou muito enrugadas
. Lábios sem sincronia com a voz
. Expressão de olhos estão desconexa
. Reflexo nos óculos condiz com o ambiente do vídeo
. No entorno do rosto pode haver pequenos delays
Como as deepfakes podem ser sofisticadas, a principal dica dos especialistas é verificar em outras fontes de credibilidade se aquele conteúdo foi noticiado. "É necessário validar a informação em outros veículos. Se o político ou personalidade tiver dado aquela declaração, vai estar em portais e jornais de credibildiade", afirma. Quem mais se prejudica com as deepfakes, completa Larissa, são aqueles que têm menos conhecimento técnico.