Proprietários de redes sociais foram citados como principal ameaça ao ambiente informacionalTânia Rego/Agência Brasil
Publicado 24/10/2024 09:06 | Atualizado 24/10/2024 09:07
Pesquisa do International Panel on the Information Environment (IPIE) revelou piora na expectativa de especialistas sobre desinformação. O estudo aponta líderes políticos, governos e donos de redes sociais como principais ameaças à qualidade do ambiente informacional mundial e põe a inteligência artificial (IA) no centro das preocupações.
Publicidade
Analistas ouvidos pelo Estadão consideram que, apesar de a IA ter tido impacto menor do que o esperado nas eleições de 2024, instituições devem se manter em alerta para os próximos pleitos.

Mais de 400 acadêmicos de áreas como ciências da computação, engenharia de dados e ciências sociais e humanas, de 66 países, foram entrevistados pelo IPIE. Enquanto mais da metade (54%) esperava que as condições piorassem em 2023, o número subiu para 63% em 2024. Nos países em desenvolvimento, como o Brasil, 75% se disseram muito pessimistas em relação ao futuro do ambiente informacional. Um dos principais motivos para esse pessimismo é o uso de IA.

Proprietários de redes sociais foram citados como principal ameaça ao ambiente informacional por 15,5%. Governos e políticos do país de origem dos entrevistados vieram na sequência, com 12,1%. Depois, governos e políticos de outros países e as mídias estatais. O menor risco, segundo os entrevistados, vem de jornalistas e da imprensa, citados como ameaça por apenas 1,5% dos participantes.

Integridade

"O controle que essas entidades (plataformas) exercem sobre a distribuição de conteúdo e as políticas de moderação afetam significativamente a qualidade e a integridade da informação", afirmou o presidente do IPIE, Phil Howard. "O poder irrestrito dessas entidades representa um grave risco para a saúde do nosso ambiente informacional global."

Para mais da metade dos participantes da pesquisa, vídeos, vozes, imagens e textos gerados artificialmente representam um risco. O Data Privacy Brasil, que monitora o uso de IA em parceria com o Desinformante e a Aláfia Lab, registrou 26 casos durante o primeiro turno do processo eleitoral de 2024 no País. Deepfakes, chatbots e jingles criados artificialmente foram os principais tipos de IA utilizados.

Entre as ocorrências, foram registrados até "deepnudes", imagens e vídeos falsos com teor sexual. Candidatas derrotadas na disputa de São Paulo, Tabata Amaral (PSB) e Marina Helena (Novo) foram as vítimas. A lista de vídeos falsos incluiu ainda suposto abraço entre Pablo Marçal (PRTB) e Tabata.

Desafio

"É um risco permanente. Daí a importância de serem observados e contidos por medidas institucionais, especialmente a atuação da Justiça", disse o diretor do Data Privacy Brasil, Rafael Zanatta "É preciso avançar desse pleito para o próximo reavaliando o quanto as regras vigentes são aderentes a uma realidade que está sempre em transformação."

Chefe de Programas do IPIE, Egerton Neto afirmou que os próximos pleitos serão desafiadores. "O mais difícil ainda está por vir. As eleições de 2026 e 2028 ocorrerão em um ambiente informacional ainda pior. Isso coloca pressão nas instituições tanto para regular o uso de IA como para explorar formas em que a IA possa ser uma aliada, como na detecção de deepfakes."
Leia mais