Publicado 08/01/2025 18:38
Na terça-feira, 7, Mark Zuckerberg, CEO da Meta, anunciou uma série de mudanças na regulação dos conteúdos de suas redes sociais, o Facebook, o Instagram e o Threads. Elas decretam o fim da moderação de conteúdo, com o encerramento do programa de checagem de fatos e a relaxamento nos filtros de inteligência artificial. No lugar, a empresa adotará o método de Notas de comunidade, no qual os próprios usuários serão responsáveis por denunciar conteúdos considerados nocivos.
PublicidadeA decisão de Zuckerberg agradou os apoiadores de Donald Trump, que inclusive afirmou que suas ameaças a Zuckerberg "provavelmente" influenciaram as mudanças do CEO. Em 2024, Trump ameaçou "mandar Zuckerberg para prisão perpétua" caso ele usasse as redes sociais para prejudicar sua reeleição.
O sistema de Notas de comunidade foi adotado inicialmente no X, de Elon Musk, que passou a ser conhecido como um ambiente digital que abraça o radicalismo, desinformação e outros conteúdos nocivos. A ferramenta de moderação faz com que os próprios usuários sejam responsáveis por denunciar conteúdo considerado nocivo nas redes, mas o caminho não é tão simples assim. Veja abaixo como o recurso funciona.
Como funciona?
As Notas de comunidade são uma forma coletiva de moderação e, segundo a Meta, uma maneira "menos parcial" de checagem de fatos, substituindo o trabalho de agências especializadas.
A ferramenta funciona por meio de usuários voluntários, que poderão sinalizar, por meio de mensagens curtas, se o conteúdo é considerado nocivo para a comunidade. Depois disso, outros usuários avaliam se a nota é considerada útil ou não, por meio de critérios como a clareza da informação e o uso das fontes. Se a maioria aprovar, o alerta deve aparecer embaixo das postagens
De acordo com a Meta, usuários poderão se inscrever para o processo a partir da próxima segunda-feira, 13. Entretanto, não divulgou quais serão os critérios avaliados.
Quais são os riscos desse tipo de moderação?
Até aqui, a Meta mantinha um programa de checagem de fatos em mais de 26 idiomas ao redor do mundo, além de contratos com mais de 80 veículos de comunicação para a realização desse trabalho de verificação. Agora, essa responsabilidade será dos usuários, que dependerão do bom senso da comunidade para considerar um conteúdo "perigoso" ou não.
É notável que haverá pessoas mal intencionadas e que, assim, a disseminação de notícias falsas nas redes socias será muito mais simplificada e ampliada.
Segundo a Meta, as plataformas só influenciarão em postagens claramente nocivas, como discursos sobre terrorismo, por exemplo
Além disso, em seu vídeo, Zuckerberg afirmou que a empresa deixará de sinalizar posts que falam sobre gênero, sexualidade e imigração, temas que podem, muitas vezes, vir acompanhados de um forte discurso de ódio. Para o CEO, essa é a maneira de voltarmos para as "raízes e origens" das redes sociais. Segundo ele, a checagem de fatos foi "longe demais" e "vem se confundindo com censura".
Leia mais
Comentários
Os comentários não representam a opinião do jornal e são de responsabilidade do autor.