A sequência de publicações sobre ataques e de supostas ameaças de atentados em escolas em redes sociais nas últimas semanas expõe a falta de controle no Brasil sobre a circulação de discursos de ódio em ambientes online. O Ministério da Justiça pediu nesta semana à Justiça a remoção de pelo menos 511 contas que tenham conteúdo nocivo, mas também prepara uma nova regulamentação que permita a retirada mais rápida desses materiais do ar. Já as plataformas alegam ter políticas próprias para frear a incitação à violência.
Segundo especialistas, o controle sobre a disseminação desse material é essencial para coibir novos ataques e desarticular redes que estimulam massacres. Outra vulnerabilidade, dizem eles, é a baixa presença do Brasil em coalizões internacionais.
A discussão envolve o Supremo Tribunal Federal, que analisa a ação questionando um trecho específico do Marco Civil da Internet, o qual prevê a necessidade de ordem judicial para a retirada de certos conteúdos. A depender do entendimento da Suprema Corte, a exigência de uma determinação da Justiça não seria mais necessária para a remoção dessas mensagens, o que abre espaço para a exigência feita pelo Ministério da Justiça para que as plataformas tenham uma autorregulação maior.
Paulo Rená da Silva Santarém, professor e codiretor do coletivo jurídico Aqualtune Lab, explica que o País tem uma legislação ampla para tratar de eventuais ameaças online e offline, mas que é poucas vezes acionada. “O Brasil tem um cenário complacente com esse crime. Na internet, essa complacência habitual pode alimentar que ameaças graves se materializem”, diz. “Estamos atrasados. Quando há um perfil em desacordo com as leis, as redes demoram a responder e quando respondem é sempre de forma evasiva.”
Apenas nos dois dias que seguiram ao massacre em uma creche de Blumenau, a equipe do Ministério da Justiça detectou 511 perfis com apologia ao crime apenas no Twitter. Um traço em comum é o uso de nomes e fotos de perfil que exaltam outros assassinatos – como no espaço visitado pelo aluno que viria a matar a professora na Vila Sônia (SP).
Durante a reunião nesta segunda-feira com a equipe do ministério, entretanto, uma advogada do Twitter negou que esse tipo de perfil represente necessariamente uma apologia ao crime e defendeu que se trata da “liberdade de expressão” dos usuários. “Não vamos aceitar isso e vamos tomar todas as providências policiais e judiciais cabíveis”, afirmou o ministro Flávio Dino.
“Diferentemente das outras redes, o Twitter não está fazendo nada sobre as denúncias. Está apenas deixando rolar”, afirma Thiago Tavares, presidente da SaferNet, organização sem fins lucrativos que monitora e combate discursos de ódio e ameaças na internet desde 2005. “Estamos vendo mensagens de incentivo e incitação para que outras pessoas façam esses ataques, inclusive ações de planejamento, e a plataforma simplesmente não faz nada.”
Estamos vendo mensagens de incentivo e incitação para que outras pessoas façam esses ataques, inclusive ações de planejamento, e a plataforma simplesmente não faz nada
Thiago Tavares, presidente da SaferNet
No último dia 7, a SaferNet e o Ministério da Justiça criaram um canal exclusivo para receber denúncias de ataques contra escolas registradas online. Desde então, mais de 50% das ameaças rastreadas pela iniciativa estavam no Twitter. No ano passado, a rede social do passarinho azul também ficou em 1º lugar dentre os e sites que concentram mais discursos de ódio em todas as categorias mapeadas pela organização, como racismo, xenofobia, LGBTfobia e incitação ao crime.
“O que está acontecendo agora é que esse discurso radicalizado está vindo mais para o centro porque o Twitter praticamente abandonou quase toda a moderação da sua plataforma”, explica David Nemer, antropólogo e professor da Universidade de Virgínia, nos Estados Unidos. “Antes, essa moderação podia até ser falha, mas existia. Agora, não há qualquer tipo de controle e essas contas vêm se proliferando porque geram engajamento. Conteúdos que criam essa comoção negativa é algo que o próprio algoritmo indica.”
Alemanha é pioneira na regulação das redes sociais
A Alemanha é considerada pioneira na adoção de medidas para regulação das redes, embora a solução adotada receba críticas. O país implementou o Network Enforcement Act há cerca de cinco anos. “Essa lei determina basicamente que as empresas têm 24 horas para retirar conteúdo que seja ‘claramente ilegal’ depois de ter recebido uma reclamação de um usuário”, explica Celina Bottino, diretora de projetos do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio).
Em paralelo, o conteúdo que não é avaliado como “manifestamente ilegal” teria uma semana para ser retirado, a depender da avaliação que é feita pela própria empresa de tecnologia. Essas medidas, caso não sejam adotadas pelas empresas de tecnologia, podem resultar em multas de até € 50 milhões.
Apesar de inovadora, a regulação tem algumas fragilidades, apontam especialistas. “Ela tem sido criticada pela dificuldade da sua aplicação na prática, justamente por colocar na mão das plataformas o que seria esse conteúdo ilegal”, diz Celina. Além de também condicionar a retirada de conteúdos a uma reclamação de usuários, e não a uma ação mais proativa das redes.
A expectativa é que, no curto prazo, a legislação da Alemanha seja melhor delimitada pelo Digital Services Act (DSA), que começou a ser implementada em países da União Europeia no fim do ano passado. “É uma regulação de plataformas digitais de uma forma bem abrangente e ampla”, afirma o pesquisador sênior João Victor Archegas, também vinculado ao ITS-Rio. Ele também cita como referência o Reino Unido, que está prestes a aprovar uma legislação sobre regulação de plataformas.
Conforme Archegas, a proposta do governo federal de incorporar um dever de cuidado, para eventualmente responsabilizar as plataformas, é inspirada na regulação europeia. A discussão do tema no País ainda esbarra em limitações na legislação, em razão do artigo do Marco Civil da Internet, mas está ganhando força. “O Brasil tem olhado atentamente para essas experiências para tentar moldar uma regulação de plataformas”, diz.
Para Bruna Martins dos Santos, pesquisadora de regulação de plataformas, o Digital Services Act é hoje um dos exemplos mais relevantes de regulação não só por cobrar mais transparência e prestação de contas das empresas, mas também por prever “uma abordagem baseada em Direitos Humanos e por reconhecer a relevância do modelo de responsabilidade de intermediários”.
“A importância de uma atuação mais proativa, com a eficaz aplicação dos termos de uso e legislação local é justamente a proteção dos usuários e a preservação de um ambiente digital sadio e plural”, diz a pesquisadora. “No entanto, é necessário pontuar que estamos falando de conteúdos que muitas vezes podem ser limítrofes e onde nem sempre a ameaça estará colocada de forma clara e objetiva.”
Plataformas dizem remover conteúdos que incitam violência
Em nota, o TikTok afirmou estar “trabalhando agressivamente para identificar e remover relatos e conteúdos que buscam promover ou incitar atos de violência, glorificar os autores de violência e espalhar desinformações prejudiciais que poderiam causar pânico ou validar farsas, incluindo a restrição de hashtags relacionadas”.
Facebook e Instagram disseram não permitir a presença de conteúdos, pessoas ou organizações que anunciem uma missão violenta ou estejam envolvidas em atos de violência nas plataformas da Meta. “Isso inclui atividade terrorista, atos organizados de ódio, assassinato em massa (incluindo tentativas) ou chacinas, tráfico humano e violência organizada ou atividade criminosa”, disse. O Twitter respondeu a solicitação apenas com um emoji de fezes.
O WhatsApp afirmou encorajar que as pessoas reportem condutas inapropriadas diretamente nas conversas, por meio da opção “denunciar” disponível no menu do aplicativo (menu > mais > denunciar) ou pressionando uma mensagem por mais tempo e acessando menu > denunciar. As pessoas também podem enviar denúncias para o email support@whatsapp.com. Discord, Telegram e Youtube não se pronunciaram até as 19h30 desta terça-feira.
Veja as orientações
- A escola precisa registrar boletim de ocorrência, acionar a PM pelo 190 e informar a diretoria de ensino sobre qualquer ameaça no “prédio escolar ou em rede social no qual seja citada a escola e/ou alunos e seus profissionais”. Qualquer ameaça, mesmo que pareça ‘brincadeira’, deve ser levada a sério e tratada com rigor.
- Em caso de identificação do autor da ameaça, a orientação para a escola é convocar os pais/responsáveis para comparecer na escola imediatamente. Se o aluno se retratar, é preciso acompanhá-lo até a sala de aula e solicitar o comparecimento diário da família.
- Especialistas afirmam que mensagens com ameaças devem ser denunciadas a canais oficiais e não compartilhadas pela internet e em grupos de aplicativos de mensagens. Entrar em pânico e deixar de frequentar as aulas não vai resolver o problema, alertam.
- O governo federal criou um canal para recebimento de informações sobre ameaças e ataques contra escolas. Para realizar a denúncia, é preciso preencher um curto formulário que não exige identificação no endereço www.gov.br/mj/pt-br/escolasegura. Veja aqui como fazer.
Os comentários são exclusivos para assinantes do Estadão.