Publicado 15/03/2026 05:00
Rio - Os golpes aplicados com o uso de inteligência artificial (IA) têm causado prejuízos cada vez maiores aos brasileiros. Criminosos usam ferramentas capazes de clonar vozes, criar vídeos falsos e produzir deepfakes para se passar por familiares, amigos ou até pessoas conhecidas, geralmente abordando as vítimas por mensagens e áudios enviados pelo WhatsApp e pedindo transferências urgentes de dinheiro. O DIA ouviu especialistas que explicam como se proteger e evitar cair nessas armadilhas.
PublicidadeSegundo os dados mais recentes da Federação Brasileira de Bancos (Febraban), as fraudes bancárias provocaram perdas estimadas em R$ 10,1 bilhões no Brasil.
O avanço desses crimes acompanha o aumento das ocorrências no País. Em 2024, o Brasil registrou cerca de 281 mil casos de estelionato eletrônico, alta de 17% em relação ao ano anterior, de acordo com dados do Anuário Brasileiro de Segurança Pública (ABSP).
Dados do Instituto de Segurança Pública (ISP) mostram que o Rio de Janeiro contabilizou 109.887 casos de estelionato em 2024, muitos deles aplicados pela internet ou por aplicativos de mensagem. Só no primeiro semestre foram 73.076 ocorrências, média de mais de 400 casos por dia.
A sofisticação dos golpes atingiu um novo patamar. Especialistas apontam que o uso de inteligência artificial tem facilitado a aplicação de golpes de personificação digital, tornando as fraudes mais convincentes e difíceis de identificar. Criminosos agora utilizam ferramentas de IA para criar vídeos deepfake de ministros, celebridades e até familiares das vítimas.
Em 90% dos casos identificados pela Agência Lupa em 2025, os golpistas usaram nomes de pessoas famosas ou empresas reconhecidas para dar credibilidade às fraudes. William Bonner, Lula, Marina Silva, o médico Drauzio Varella e o ministro Fernando Haddad já tiveram suas imagens e vozes clonadas em esquemas que prometiam saques de "dinheiro esquecido", produtos ou investimentos milagrosos.
Para convencer as vítimas, os golpistas costumam explorar laços de afeto e confiança. Usando vozes clonadas ou mensagens que imitam familiares e amigos, eles pedem transferências de dinheiro, geralmente valores como R$ 1 mil, R$ 3 mil ou até R$ 5 mil, alegando situações de urgência.
As histórias costumam seguir um roteiro parecido: dizem que estão em uma loja, fazendo uma compra ou enfrentando algum problema para acessar a conta bancária, e pedem que o dinheiro seja enviado para a conta de um terceiro, com a promessa de devolver o valor depois.
Luiz Cláudio dos Santos Lopes, CEO e fundador da LC SEC, empresa especializada em cibersegurança, explica que os criminosos costumam combinar engenharia social, dados expostos na internet, informações de redes sociais e, em alguns casos, voz sintética para criar senso de urgência.
"A clonagem de voz funciona a partir da análise de características da fala de uma pessoa, como tom, ritmo, pausas, pronúncia e entonação. Com isso, a ferramenta consegue gerar um áudio novo, com frases que aquela pessoa nunca falou, mas com uma voz muito parecida com a dela", detalhou.
Segundo o especialista, nem sempre é necessário muito material para criar uma imitação capaz de enganar vítimas. "Para um golpe simples, poucos segundos já podem ser suficientes para gerar algo que cause dúvida ou convença emocionalmente, principalmente se a vítima estiver assustada. Para clones mais naturais e consistentes, quanto mais áudio limpo o criminoso tiver, melhor tende a ser o resultado. Em outras palavras: para enganar, às vezes basta pouco; para ficar realmente sofisticado, mais material ajuda", disse.
Grande parte desse material pode ser obtida na internet, já que muitas pessoas publicam vídeos e áudios nas redes sociais, se tornando um dos pontos mais preocupantes.
"Vídeos, entrevistas, stories, podcasts e até áudios encaminhados podem servir como matéria-prima para esse tipo de fraude. Quanto mais conteúdo público de voz uma pessoa tem disponível, maior pode ser a exposição", apontou Lopes.
Grande parte desse material pode ser obtida na internet, já que muitas pessoas publicam vídeos e áudios nas redes sociais, se tornando um dos pontos mais preocupantes.
"Vídeos, entrevistas, stories, podcasts e até áudios encaminhados podem servir como matéria-prima para esse tipo de fraude. Quanto mais conteúdo público de voz uma pessoa tem disponível, maior pode ser a exposição", apontou Lopes.
Ele acrescenta que não existe uma lista das ferramentas preferidas dos criminosos: "O ponto principal é que a tecnologia ficou barata, simples de operar e muito mais disponível do que há poucos anos. Hoje, o risco não está em uma única plataforma, mas na popularização desse ecossistema".

Além dos riscos tecnológicos, golpes que utilizam inteligência artificial também levantam questões jurídicas e investigativas. Segundo especialistas, apesar da sofisticação das fraudes, muitas vezes é possível rastrear a origem dos crimes, embora o processo possa ser complexo.
Ana Cláudia Dorneles, advogada em crimes digitais da IPV7 Group, revela que tanto o criador quanto o divulgador desses golpes estão sujeitos a punições legais, como estelionato, falsidade Ideológica, crimes contra a honra e o Marco Civil da Internet.
Ela afirma que a principal dificuldade para as autoridades investigar esses crimes é a velocidade com que acontecem, pois quando precisa obter informações com as empresas, não possível conseguir na mesma velocidade que o crime ocorre.
"Em um cenário onde o criminoso utiliza de DeepFake para realizar vídeos chamadas e envio de áudios por meio de aplicativos de mensagens com criptografia e a deep web (fóruns ocultos) para operar com baixa rastreabilidade, isso dificulta o mapeamento das conexões", alerta.
A advogada criminalista Lorena Pontes, sócia do escritório Durão & Almeida, Pontes Advogados Associados, explica que a identificação dos responsáveis depende de diversos elementos técnicos e da colaboração de instituições e plataformas.
"A apuração costuma depender da preservação e obtenção de metadados, registros de acesso, dados cadastrais, IPs, horários, trilha do dinheiro, aparelho usado e contas destinatárias. Em mensagens e redes, a autoridade policial ou o Ministério Público normalmente precisa requisitar ou judicializar a obtenção desses elementos. Quando há movimentação por Pix, o rastreio financeiro ajuda muito, porque a transação deixa trilhas nas instituições participantes", explica.
"A apuração costuma depender da preservação e obtenção de metadados, registros de acesso, dados cadastrais, IPs, horários, trilha do dinheiro, aparelho usado e contas destinatárias. Em mensagens e redes, a autoridade policial ou o Ministério Público normalmente precisa requisitar ou judicializar a obtenção desses elementos. Quando há movimentação por Pix, o rastreio financeiro ajuda muito, porque a transação deixa trilhas nas instituições participantes", explica.
Para que as investigações avancem, é fundamental que a vítima preserve o máximo possível de informações e registros relacionados ao golpe. "A vítima deve guardar todas as provas digitais disponíveis: prints da conversa, número do remetente, link do perfil, chave Pix, comprovantes de transferência, extrato bancário, nome do favorecido, áudio recebido, e-mail, URL, data e hora de cada contato, além de protocolo de atendimento do banco e da plataforma", orienta.
"O ideal é não apagar nada, exportar a conversa, fazer cópia dos arquivos em local seguro e registrar desde logo a cronologia do fato. Orientações oficiais do governo sobre fraude digital e acesso indevido também recomendam anexar telas, e-mails e demais comprovações ao registro policial", acrescenta.
Dorneles explica que a rapidez na comunicação com o banco é fundamental logo após perceber a fraude:
"Ter celeridade após o envio de valores em um golpe é essencial para a recuperação do mesmo, pois o modus operandi dos golpistas é movimentar o dinheiro para outras contas, assim impossibilitando a recuperação. Primeiro passo é acionar o seu banco e informá-lo sobre o golpe. O banco recebedor é notificado e deve bloquear os valores na conta do suposto golpista, caso ainda estejam lá." "Em casos envolvendo transferências via Pix, ainda existe a possibilidade de tentar recuperar o dinheiro, embora o sucesso dependa de alguns fatores", complementa.
Pontes orienta que orientação agir com rapidez para tentar reduzir os prejuízos é o mlehor caminho:
Pontes orienta que orientação agir com rapidez para tentar reduzir os prejuízos é o mlehor caminho:
"Também é possível tentar recuperar o dinheiro enviado por Pix, mas isso depende da velocidade e da existência de saldo ainda disponível nas contas de destino. O caminho é acionar imediatamente a instituição financeira e requerer o MED, mecanismo criado para facilitar devoluções em caso de fraude. O Banco Central informa que esse sistema foi aprimorado para aumentar a rastreabilidade e a capacidade de bloqueio e devolução, embora ele não garanta ressarcimento integral em todos os casos".
Uma das estratégias recomendadas para reduzir o risco de golpes envolvendo clonagem de voz no WhatsApp é estabelecer mecanismos de verificação entre familiares. O especialista em segurança digital Luiz Cláudio dos Santos Lopes afirma que criar formas de confirmação prévias pode ser o melhor caminho para evitar cair nesse tipo de fraude, principalmente em situações de emergência.
"Não é uma solução perfeita, mas é uma barreira prática e muito eficiente. Uma palavra, frase ou pergunta de segurança combinada previamente entre familiares pode quebrar a lógica do golpe, porque a IA imita a voz, mas não conhece necessariamente um combinado privado da família", ressalta.
Com o avanço das ferramentas de inteligência artificial, a expectativa é que esse tipo de fraude continue crescendo nos próximos anos. "A tendência é de aumento, porque as ferramentas estão mais acessíveis, mais fáceis de usar e com qualidade melhor. O problema não é só tecnológico, é também comportamental: os criminosos perceberam que a IA aumenta a credibilidade dos golpes e melhora muito a taxa de convencimento", disse o especialista.
Ele ressalta que, ao mesmo tempo, empresas e pesquisadores têm desenvolvido tecnologias voltadas para identificar conteúdos manipulados por inteligência artificial, como áudios falsos.
"Esse mercado está evoluindo. Já há soluções de detecção de deepfake de áudio e pesquisas específicas nessa área. Mas é importante dizer que elas não são infalíveis. Em muitos casos, a melhor defesa ainda é combinar tecnologia com validação humana, múltiplos fatores de autenticação e checagem de contexto", apontou.
As plataformas digitais também têm adotado medidas para combater golpes, embora especialistas apontem que a prevenção depende não apenas da tecnologia, mas também do comportamento dos usuários.
"As plataformas têm, sim, mecanismos de denúncia, bloqueio e detecção de contas suspeitas. O próprio WhatsApp informa que remove contas ligadas a golpes e oferece ferramentas para reportar contatos e mensagens. Ao mesmo tempo, nenhuma plataforma consegue impedir totalmente fraude baseada em manipulação emocional, porque muitas vezes o ataque depende mais do comportamento da vítima do que de uma falha técnica do aplicativo", ressalta Lopes.
"Esse mercado está evoluindo. Já há soluções de detecção de deepfake de áudio e pesquisas específicas nessa área. Mas é importante dizer que elas não são infalíveis. Em muitos casos, a melhor defesa ainda é combinar tecnologia com validação humana, múltiplos fatores de autenticação e checagem de contexto", apontou.
As plataformas digitais também têm adotado medidas para combater golpes, embora especialistas apontem que a prevenção depende não apenas da tecnologia, mas também do comportamento dos usuários.
"As plataformas têm, sim, mecanismos de denúncia, bloqueio e detecção de contas suspeitas. O próprio WhatsApp informa que remove contas ligadas a golpes e oferece ferramentas para reportar contatos e mensagens. Ao mesmo tempo, nenhuma plataforma consegue impedir totalmente fraude baseada em manipulação emocional, porque muitas vezes o ataque depende mais do comportamento da vítima do que de uma falha técnica do aplicativo", ressalta Lopes.
Como os golpes acontecem na prática
Além dos dados e alertas de especialistas, relatos de vítimas mostram como golpes com clonagem de voz e mensagens falsas no WhatsApp têm se tornado cada vez mais convincentes.
O auxiliar administrativo Carlos Araujo, de 38 anos, acabou caindo em um golpe depois de receber uma mensagem que parecia vir da irmã. No aplicativo, ele recebeu um áudio com uma voz muito parecida com a dela pedindo ajuda urgente para pagar uma compra. Segundo ele, a mensagem dizia que o celular havia sido roubado e que ela não conseguia acessar a própria conta bancária naquele momento.
"Ela disse que estava em uma loja e precisava pagar uma compra na hora. Falou que me devolveria o dinheiro depois. A voz parecia muito com a da minha irmã e eu acabei acreditando", conta.
Carlos transferiu R$ 2 mil por Pix para a conta indicada na conversa. Pouco tempo depois, ao comentar o assunto com outro familiar, descobriu que a irmã não havia pedido dinheiro. "Quando percebi que era golpe, fiquei desesperado. Na mesma hora entrei em contato com o banco e registrei ocorrência", relata.
Com a rápida comunicação à instituição financeira e o registro do caso, o banco conseguiu acionar mecanismos de bloqueio da transação e o valor acabou sendo recuperado.
Já a designer Rafael Ferreira, de 35 anos, também recebeu uma mensagem semelhante, supostamente enviada pela irmã. No áudio, a voz dizia que ela precisava de R$ 1,5 mil para resolver um problema urgente.
Apesar da semelhança com a voz da familiar, um detalhe levantou suspeitas: "A voz parecia muito com a da minha irmã, mas ela me chamou pelo meu nome completo. Ela nunca faz isso, sempre usa um apelido".
Desconfiado, Rafael decidiu ligar diretamente para a irmã antes de fazer qualquer transferência e confirmou que se tratava de uma tentativa de golpe.
Uma situação parecida aconteceu com a professora Patrícia Santana, de 51 anos. Ela recebeu uma mensagem de um número desconhecido com um áudio que imitava a voz da filha pedindo ajuda financeira. Na mensagem, a suposta filha dizia que estava com problemas para acessar o aplicativo do banco e precisava que a mãe transferisse R$ 5 mil para a conta de um amigo.
"Na hora fiquei preocupada porque parecia muito com a voz dela, mas achei estranho ela pedir para mandar o dinheiro para outra pessoa", disse.
Antes de fazer qualquer transferência, a professora decidiu fazer uma chamada de vídeo para confirmar a situação. A filha atendeu normalmente e afirmou que não havia pedido dinheiro.
Casos como esses têm se tornado cada vez mais comuns com o uso de ferramentas de inteligência artificial para imitar vozes e criar mensagens mais convincentes.
*Os nomes dos personagens foram alterados para preservar a identidade das vítimas.
O auxiliar administrativo Carlos Araujo, de 38 anos, acabou caindo em um golpe depois de receber uma mensagem que parecia vir da irmã. No aplicativo, ele recebeu um áudio com uma voz muito parecida com a dela pedindo ajuda urgente para pagar uma compra. Segundo ele, a mensagem dizia que o celular havia sido roubado e que ela não conseguia acessar a própria conta bancária naquele momento.
"Ela disse que estava em uma loja e precisava pagar uma compra na hora. Falou que me devolveria o dinheiro depois. A voz parecia muito com a da minha irmã e eu acabei acreditando", conta.
Carlos transferiu R$ 2 mil por Pix para a conta indicada na conversa. Pouco tempo depois, ao comentar o assunto com outro familiar, descobriu que a irmã não havia pedido dinheiro. "Quando percebi que era golpe, fiquei desesperado. Na mesma hora entrei em contato com o banco e registrei ocorrência", relata.
Com a rápida comunicação à instituição financeira e o registro do caso, o banco conseguiu acionar mecanismos de bloqueio da transação e o valor acabou sendo recuperado.
Já a designer Rafael Ferreira, de 35 anos, também recebeu uma mensagem semelhante, supostamente enviada pela irmã. No áudio, a voz dizia que ela precisava de R$ 1,5 mil para resolver um problema urgente.
Apesar da semelhança com a voz da familiar, um detalhe levantou suspeitas: "A voz parecia muito com a da minha irmã, mas ela me chamou pelo meu nome completo. Ela nunca faz isso, sempre usa um apelido".
Desconfiado, Rafael decidiu ligar diretamente para a irmã antes de fazer qualquer transferência e confirmou que se tratava de uma tentativa de golpe.
Uma situação parecida aconteceu com a professora Patrícia Santana, de 51 anos. Ela recebeu uma mensagem de um número desconhecido com um áudio que imitava a voz da filha pedindo ajuda financeira. Na mensagem, a suposta filha dizia que estava com problemas para acessar o aplicativo do banco e precisava que a mãe transferisse R$ 5 mil para a conta de um amigo.
"Na hora fiquei preocupada porque parecia muito com a voz dela, mas achei estranho ela pedir para mandar o dinheiro para outra pessoa", disse.
Antes de fazer qualquer transferência, a professora decidiu fazer uma chamada de vídeo para confirmar a situação. A filha atendeu normalmente e afirmou que não havia pedido dinheiro.
Casos como esses têm se tornado cada vez mais comuns com o uso de ferramentas de inteligência artificial para imitar vozes e criar mensagens mais convincentes.
*Os nomes dos personagens foram alterados para preservar a identidade das vítimas.
Especialistas recomendam atenção redobrada diante de pedidos de dinheiro feitos por mensagens ou áudios, principalmente quando envolvem urgência.
Veja algumas orientações:
- Desconfie de pedidos urgentes de dinheiro. Golpistas costumam usar pressão emocional para induzir a vítima ao erro.
- Evite clicar em links suspeitos, mesmo que pareçam ofertas vantajosas ou mensagens de remetentes aparentemente confiáveis.
- Confirme a identidade da pessoa por outro canal, como uma ligação ou videochamada.
- Faça perguntas pessoais que apenas o familiar ou amigo saberia responder.
- Confira sempre o nome do destinatário e a chave Pix antes de realizar qualquer transferência.
- Desconfie de pedidos urgentes de dinheiro. Golpistas costumam usar pressão emocional para induzir a vítima ao erro.
- Evite clicar em links suspeitos, mesmo que pareçam ofertas vantajosas ou mensagens de remetentes aparentemente confiáveis.
- Confirme a identidade da pessoa por outro canal, como uma ligação ou videochamada.
- Faça perguntas pessoais que apenas o familiar ou amigo saberia responder.
- Confira sempre o nome do destinatário e a chave Pix antes de realizar qualquer transferência.
Além das orientações para evitar fraudes, as especialistas também explicam quais são os canais mais rápidos para denunciar golpes digitais e registrar ocorrências, principalmente quando envolvem clonagem de voz, deepfakes ou pedidos de dinheiro por aplicativos de mensagem.
- Delegacia eletrônica da Polícia Civil
- Delegacia eletrônica da Polícia Civil
A forma mais rápida é registrar a ocorrência na delegacia on-line do estado, que permite comunicar crimes virtuais pela internet e anexar provas como prints, comprovantes de transferência e áudios recebidos.
- Sinesp Delegacia Virtual (DEVIR)
- Sinesp Delegacia Virtual (DEVIR)
Em estados que utilizam o sistema nacional, o registro também pode ser feito pela Delegacia Virtual integrada ao Sistema Nacional de Informações de Segurança Pública (Sinesp).
- Delegacia On-line da Polícia Civil do Rio de Janeiro
- Delegacia On-line da Polícia Civil do Rio de Janeiro
No estado do Rio, as vítimas podem registrar ocorrência pela Delegacia Online da Polícia Civil, disponível pela internet.
- Comunica PF
- Comunica PF
Quando houver indícios de crime de competência federal, a denúncia também pode ser feita pelo canal Comunica PF, da Polícia Federal.
- Banco ou instituição financeira
- Banco ou instituição financeira
Além do registro policial, especialistas orientam comunicar imediatamente o banco ou instituição financeira envolvida na transferência para acionar protocolos de fraude e tentar bloquear ou recuperar o valor.
Leia mais
Comentários
Os comentários não representam a opinião do jornal e são de responsabilidade do autor.