O posicionamento do Twitter irritou o Ministério da JustiçaDivulgação
Publicado 14/04/2023 14:07
Publicidade
O Ministério da Justiça e Segurança Pública publicou nesta quinta-feira, 13, uma portaria com o intuito de responsabilizar as plataformas digitais pela veiculação de conteúdos que incitam a violência em escolas. Embora o texto seja direcionado a todas as redes sociais e demais plataformas, um dos grandes focos do governo é o Twitter.
Nas últimas semanas, muitos conteúdos que incitam massacres em escolas estão circulando nas redes sociais, sobretudo no Twitter. Na última segunda-feira, 10, o Ministério da Justiça se reuniu com as principais plataformas digitais brasileiras — Meta (dona de Facebook e Instagram), WhatsApp, TikTok, Kwai, Google, YouTube e Twitter — para debater o tema e cobrar medidas de moderação de conteúdo.
De acordo com o G1 e com a Folha de S. Paulo, os representantes do Twitter se recusaram, na ocasião, a excluir conteúdos que fazem apologia à violência nas escolas, sob a justificativa de que esse tipo de publicação não viola as regras da plataforma.

"É justamente esse atrito entre o governo e o Twitter que acabou servindo como justificativa para o Ministério da Justiça publicar essa portaria. Fica bem claro isso. Embora eles falem em abrir um procedimento administrativo para averiguar a conduta de todas as plataformas, a portaria tem um alvo certo", avalia João Victor Archegas, mestre em Direito por Harvard e pesquisador no Instituto de Tecnologia e Sociedade do Rio.

"Agora cresce também a preocupação de que eventualmente o Twitter poderia até mesmo ser suspenso ou banido do país. É quase uma reprise do que a gente teve nos últimos anos em relação ao Telegram", afirma João.

Reflexo de Elon Musk
Para o pesquisador, essa postura do Twitter reflete a filosofia de Elon Musk. Desde que assumiu o controle da empresa, em outubro do ano passado, o bilionário vem pregando que a rede social deve ser um espaço de liberdade de expressão, desconsiderando discursos perigosos.

Em poucos meses, Musk reduziu em cerca de 75% os funcionários do Twitter, extinguindo áreas importantes para a moderação de conteúdo.
"Essa nova direção da empresa aponta que o Twitter tem que ser uma espécie de espaço seguro para liberdade de expressão, e que tudo vale. Essa postura é um reflexo do enfraquecimento dos protocolos de moderação de conteúdo na empresa e da demissão em massa de pessoas que cuidavam dessa frente dentro da companhia. Agora, você vê os representantes do Twitter assumindo essa postura inadmissível de dizer que esse tipo de conteúdo não viola os seus termos de uso", afirma João.

"Eu acho que a gente ainda está assistindo às mudanças que foram feitas na plataforma desde que Musk comprou o Twitter", analisa Bruna Santos, ativista da Coalizão Direitos na Rede e pesquisadora visitante no Centro de Ciências Sociais de Berlim (WZB).

"Claro que desde a compra dele, o Twitter assume uma postura um pouco mais defensora de uma liberdade expressão absoluta, inclusive deixando de lado algumas decisões executivas da própria plataforma sobre moderação de conteúdo. Mas não dá para dizer também que, desde que o Elon comprou um Twitter, a plataforma deixou de moderar conteúdos de qualquer maneira", completa.

Problema geral
Embora o Twitter tenha assumido um protagonismo nessa discussão por conta de sua postura inflexível, é difícil dizer que o Twitter pré-Elon Musk agiria de forma perfeita, como pontua Bruna. Isso porque existem problemas na moderação de conteúdo das plataformas digitais de modo geral, e situações de emergência, como a atual das publicações que incitam a violência em escolas, só jogam luz sobre eles.
Existe uma necessidade de maior adequação dos termos de uso e políticas de conteúdo dessas plataformas às legislações locais, justamente para evitar que existam essas discrepâncias de interpretação sobre o que é e o que não é ilegal, o que é o que não é um conteúdo ofensivo, e coisas nessa linha", afirma Bruna.
João acrescenta que há falta de transparência das plataformas digitais sobre a aplicação de suas próprias regras. "Não sabemos se há previsibilidade ou não na aplicação dessas regras e procedimentos, se casos semelhantes são tratados da mesma forma, e se há estabilidade e racionalidade na aplicação de todos esses parâmetros que são criados especialmente por plataformas digitais, em razão do paradigma de autorregulação no qual a gente se encontra hoje", explica.

Discussão em alta
Essas questões apontadas pelos pesquisadores estão sendo debatidas atualmente no Projeto de Lei 2630, conhecido como PL das Fake News, discutido no Congresso desde 2020. No fim de março, o governo federal propôs algumas alterações ao PL, gerando debates na sociedade civil e entre parlamentares.

Além disso, o artigo 19 do Marco Civil da Internet está tendo sua constitucionalidade debatida pelo Supremo Tribunal Federal (STF). Esse artigo prevê que as plataformas digitais não podem ser responsabilizadas por conteúdos publicados pelos usuários, a não ser que haja o descumprimento de uma decisão judicial ordenando a remoção de determinado conteúdo.

"Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário", diz o artigo 19 do Marco Civil da Internet.

"Todo esse contexto coloca pressão sobre as plataformas, e a gente está se aproximando cada vez mais de um novo modelo regulatório. Se isso vem via decisão judicial do Supremo Tribunal Federal, no caso do artigo 19, ou então via nova legislação pelo Congresso Nacional, no caso do PL 2630, isso só o tempo vai dizer. Mas o ponto é que tudo isso vai convergindo para um novo modelo", analisa João.
Especialistas criticam portaria do governo
Diante desse contexto, João e Bruna avaliam de forma negativa a portaria publicada pelo Ministério da Justiça. Ao exigir a remoção de conteúdos sob pena de processo administrativo, que pode gerar multa ou até suspensão, a portaria viola o artigo 19 do Marco Civil da Internet.

"Essa portaria é surpreendente e, inclusive, potencialmente ilegal", avalia João. "É uma medida extremamente autoritária e problemática", concorda Bruna. "Eu realmente acho um absurdo que a legalidade de discurso precise ser decidida pelo Executivo por meio de um ato administrativo, violando o que está colocado no Marco Civil, que é esse direito da Justiça Federal de decidir sobre a legalidade", completa a pesquisadora.
João e Bruna explicam que esse tipo de decisão incentiva as plataformas a moderarem mais conteúdos, o que pode gerar problemas para a liberdade de expressão. Além disso, o texto fala na violação do "dever de cuidado", o que ainda não existe no ordenamento jurídico brasileiro.

Para os pesquisadores, os pontos propostos pela portaria deveriam ser discutidos a partir do PL 2630, podendo ser aprovados, ou não, pelo Congresso Nacional.

O Ministério da Justiça alega que a portaria é voltada exclusivamente para ameaças contra estudantes, crianças e adolescentes, e que foi instaurada para lidar com uma situação emergencial.

"Nós estamos vendo que há uma situação emergencial que tem gerado uma epidemia de ataques, ameaças de ataques, bem como também de difusão de pânico no seio das famílias e das escolas. Foi nesse contexto que resolvemos editar uma portaria, que traz medidas práticas, concretas, a fim de que haja uma regulação desse serviço prestado à sociedade, especificamente no que se refere à prevenção de violência contra escolas", afirmou o ministro da Justiça, Flávio Dino, durante anúncio da portaria na quarta-feira, 12.

Mesmo diante do caráter emergencial da situação, os pesquisadores avaliam que havia outras formas do governo agir. João sugere, por exemplo, que o Ministério da Justiça poderia ter pego o compilado de publicações a serem excluídas e entrado com uma ação na Justiça, pedindo liminarmente a remoção dos conteúdos pelas plataformas. "O sistema judiciário é a via correta para solicitar esse tipo de medida, como está disposto no próprio Marco Civil da Internet", afirma.
O que dizem as plataformas
A reportagem entrou em contato com todas as plataformas digitais que participaram da reunião com o Ministério da Justiça no início da semana. O Twitter respondeu apenas com um emoji de cocô, resposta padrão a todas as solicitações da imprensa .

O Google e o Youtube não responderam até a publicação desta reportagem. A seguir, confira os posicionamentos do TikTok, Meta, WhatsApp e Kwai.

TikTok
"Os relatos de ameaças potenciais de violência nas escolas são abomináveis e tristes. Estamos trabalhando agressivamente para identificar e remover relatos e conteúdos que buscam promover ou incitar atos de violência, glorificar os autores de violência e espalhar desinformações prejudiciais que poderiam causar pânico ou validar farsas, incluindo a restrição de hashtags relacionadas. Onde encontramos ameaças iminentes de violência, trabalhamos com as autoridades policiais, de acordo com nossas políticas de relacionamento com as autoridades locais ".

Meta
"Não permitimos a presença de conteúdos, pessoas ou organizações que anunciem uma missão violenta ou estejam envolvidas em atos de violência nas plataformas da Meta. Isso inclui atividade terrorista, atos organizados de ódio, assassinato em massa (incluindo tentativas) ou chacinas, tráfico humano e violência organizada ou atividade criminosa. Também removemos conteúdo que expresse apoio ou exalte grupos, líderes ou pessoas envolvidas nessas atividades".

WhatsApp
"O WhatsApp encoraja que as pessoas reportem condutas inapropriadas diretamente nas conversas, por meio da opção 'denunciar' disponível no menu do aplicativo (menu > mais > denunciar) ou simplesmente pressionando uma mensagem por mais tempo e acessando menu > denunciar. As pessoas também podem enviar denúncias para o email support@whatsapp.com, detalhando o ocorrido com o máximo de informações possível e até anexando uma captura de tela. O usuário ou grupo denunciado não recebe nenhuma notificação sobre essa ação.

"É importante ressaltar que conteúdos ilícitos também devem ser denunciados para as autoridades policiais competentes.

"O WhatsApp é a plataforma de mensagens que coopera mais ativamente com as autoridades locais. Para auxiliar investigações criminais, o aplicativo pode fornecer dados disponíveis em resposta às solicitações de autoridades públicas e em conformidade com a legislação aplicável".

Kwai
"O Kwai reitera seu compromisso com a segurança dos usuários e no combate a informações que ameacem a sociedade, e destaca que acompanha de perto as discussões sobre o tema, trabalhando diariamente para conter o avanço e a propagação destes conteúdos.

"A plataforma não permite conteúdo violento explícito, que normalize ou glorifique a violência e que possa incentivar atitudes violentas no mundo real. Além disso, caso algum comportamento suspeito seja detectado, o aplicativo toma providências imediatas removendo o conteúdo e, se necessário, banindo o usuário do sistema, além de notificar as autoridades sobre ameaças ou sinais de ataque iminentes que forem identificados. A empresa também está à disposição para cooperar com as autoridades brasileiras, respeitando sempre as leis e regulamentações dos países onde opera, para garantir a proteção dos usuários e prevenir a disseminação de conteúdo prejudicial".
Publicidade
Leia mais