Meta controla Facebook, Instagram e WhatsAppAFP
Meta identificará imagens geradas por IA no Facebook, Instagram e Threads
Também pretende fazer o mesmo com conteúdo criado com ferramentas de outras empresas, como Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock
A gigante norte-americana Meta anunciou nesta terça-feira, 6, que identificará "nos próximos meses" qualquer imagem gerada por Inteligência Artificial (IA) que apareça em suas redes sociais Facebook, Instagram e Threads.
"Nos próximos meses, rotularemos as imagens que os usuários publicarem no Facebook, Instagram e Threads sempre que pudermos detectar indicadores, conforme as normas da indústria, que revelem se são geradas por IA", anunciou o responsável por assuntos internacionais da Meta, Nick Clegg, em um blog.
A empresa já identifica imagens feitas por robôs com a ajuda de sua própria ferramenta, Meta IA, lançada em dezembro.
Daqui para frente, "queremos poder fazer o mesmo com conteúdos criados com ferramentas de outras empresas" como Google, OpenAI, Microsoft, Adobe, Midjourney ou Shutterstock, acrescentou o responsável da Meta.
"Estamos construindo essa ferramenta no momento e começaremos a aplicar, nos próximos meses, etiquetas em todos os idiomas compatíveis com cada aplicativo", destacou.
O aumento da IA generativa faz crescer a preocupação de que as pessoas usem essas ferramentas para semear o caos político, especialmente por meio da desinformação. Quase metade da população mundial irá às urnas em 2024.
Além do risco político, o desenvolvimento de programas de IA generativa pode resultar em um fluxo incontrolável de conteúdos degradantes, segundo muitos ativistas e reguladores.
Como exemplo estão as "deepfakes" pornográficas de mulheres famosas, um fenômeno que também afeta muitas pessoas anônimas.
Antes de sua remoção, a "deepfake" da estrela americana Taylor Swift foi vista 47 milhões de vezes na rede social X (ex-Twitter), no final de janeiro. Segundo a imprensa americana, a publicação permaneceu online na plataforma por cerca de 17 horas.
Embora Nick Clegg tenha afirmado que a ferramenta "não eliminará" totalmente o risco de produção de imagens falsas, "certamente minimizará" sua proliferação "dentro dos limites do que a tecnologia permite atualmente".
"Não é perfeito, não vai cobrir tudo, a tecnologia não está totalmente pronta. Mas, até agora, é a tentativa mais avançada a fornecer transparência significativa à bilhões de pessoas em todo o mundo", garantiu Clegg à AFP.
"Eu espero profundamente que, fazendo isso, tomando esse caminho, iremos incentivar o restante da indústria (...) a trabalhar junto e realmente tentar desenvolver os padrões comuns que precisamos", defendeu o líder da Meta, afirmando estar disposto a "compartilhar" sua tecnologia aberta "da forma mais ampla possível".
Em meados de janeiro, a empresa californiana OpenAI, criadora do ChatGPT, também anunciou o lançamento de ferramentas para combater a desinformação e salientou seu desejo de não permitir o uso de suas tecnologias para fins políticos.
"Queremos garantir que nossa tecnologia não seja usada de maneira que prejudique" o processo democrático, explicou a OpenAI, destacando que seu gerador de imagens DALL-E 3 contém "ressalvas" para evitar que os usuários gerem imagens de pessoas reais, especialmente candidatos.
Os comentários não representam a opinião do jornal e são de responsabilidade do autor.