Evitar uma definição restrita de desinformação e focar em mecanismos de responsabilização e de transparência, com o objetivo de dificultar a censura e proteger a liberdade de expressão, são as principais sugestões de especialistas para a regulamentação brasileira das redes sociais no que diz respeito ao combate às fake news.
Essas sugestões estão no relatório Referências Internacionais em regulação de plataformas digitais: bons exemplos e lições para o caso brasileiro, lançado na última semana pela Coalizão Direitos na Rede, que demonstra como 71 diferentes países, órgãos e blocos econômicos e regionais legislam sobre o assunto.
Conforme o documento, ao definir em legislação o que se enquadra como desinformação, alguns países o fizeram de forma ampla ou imprecisa, o que teve consequências negativas. Por exemplo, a lei contra desinformação foi utilizada para reprimir adversários políticos na Rússia, em Singapura e na Etiópia.
União Europeia e Reino Unido sancionaram leis elogiadas por especialistas
O relatório aponta que se saíram melhor as nações que adotaram iniciativas de promoção da transparência e de responsabilização que assegurem um ambiente de mídia livre, independente e diversificado. Um dos exemplos mais citados pelos especialistas enquanto experiência positiva é a Lei de Serviços Digitais (DSA, na sigla em inglês), aprovada pela União Europeia, e que pode ser uma vitrine para a longa discussão que tem sido travada no Brasil.
Em vez de definir a desinformação, a lei se limita a identificar que conteúdos ilegais são aqueles que refletem as normas existentes no ambiente fora das redes, ou seja, informações relativas a conteúdos, produtos, serviços e atividades ilegais, como os discursos de incitação ao ódio e terroristas.
Na mesma linha, foi redigida a Lei de Segurança Online do Reino Unido, também apontada por especialistas como boa prática. Em vez de definir o que é desinformação ou notícia falsa, o texto identifica como conteúdo ilegal aquele que já é ilegal de acordo com a legislação vigente, como terrorismo, discurso de ódio e exploração sexual infantil.
A autora do relatório Maria Paula Russo Riva observa que essas duas legislações impõem medidas alternativas à definição da desinformação. Veja alguns exemplos:
- a elaboração de relatórios de transparência por parte das plataformas;
- a atribuição de obrigações de mitigação de riscos sistêmicos que possam gerar danos coletivos à sociedade;
- a concessão pelas plataformas de dados para pesquisadores;
- a previsão em leis de medidas para empoderar usuários quanto ao poder delas;
- a imposição de deveres de transparência quanto à publicidade digital, incluindo propaganda política.
O DSA, ressalta Maria Paula, tem sido um importante modelo para países em diversos mecanismos, principalmente em relação à noção de combate aos riscos sistêmicos. “Este modelo não olha para os conteúdos individuais, mas para as medidas estruturais, visando evitar tais riscos e promover um ambiente que respeite a liberdade de expressão e o direito à informação”, afirmou.
Para Liz Nóbrega, jornalista do Desinformante, iniciativa que analisa o impacto da desinformação na sociedade e discute as formas de combatê-la, o fato de já se ter um escopo regulatório robusto na Europa pode favorecer a pressão por mecanismos igualitários no Brasil. Além disso, ela acredita que a experiência internacional pode ajudar a afastar narrativas falsas de censura, visto que inúmeros países democráticos já apostaram em uma regulação de plataformas por compreenderem o impacto delas no debate público e na democracia como um todo.
Como está a discussão sobre desinformação no Brasil?
No início de abril, o presidente da Câmara dos Deputados, Arthur Lira (PP-AL), anunciou o engavetamento do Projeto de Lei 2630, que ficou conhecido como PL das Fake News. O texto era, até o momento, a iniciativa mais próxima de uma regulamentação das redes sociais no País.
Lira argumentou que o projeto não andaria por ter sido polemizado. “Teve os problemas da agência reguladora, de todas as versões feitas e praticadas pelas redes sociais com relação à falta de liberdade de expressão, à censura. Quando um texto ganha uma narrativa como essa, ele simplesmente não tem apoio. Não é questão de governo e oposição”, declarou.
O presidente da Casa e os líderes partidários decidiram pela criação de um grupo de trabalho para discutir o assunto, mas sem incluir na relatoria o deputado Orlando Silva (PCdoB-SP), autor do projeto que vinha sendo debatido. A previsão de Lira é que os trabalhos durem de 30 a 45 dias para que o texto fique “mais maduro” e sem disputas políticas e ideológicas antes de ir a plenário.
Paralelamente, o ministro Dias Toffoli, do Supremo Tribunal Federal (STF), anunciou que o processo sobre a responsabilidade das plataformas diante de conteúdos nocivos distribuídos nas redes sociais deve ser encaminhado para julgamento até o final de junho.
A jornalista Liz Nóbrega avalia como um retrocesso a decisão de Lira e observa que um dos maiores efeitos da demora na regulamentação é o Brasil entrar em mais um processo eleitoral sem uma regulação que abarque as questões contemporâneas e crie salvaguardas para a proteção do espaço democrático.
Leia mais:
O que o PL 2630 tinha em comum com a DSA, da União Europeia?
O projeto que vinha sendo debatido no Brasil já apresentava princípios alinhados ao europeu DSA, como a não definição do que é desinformação. No modelo brasileiro, há o conceito de moderação de conteúdo, mas sem definição sobre fake news. Em relação a outras temáticas, como crimes contra o Estado Democrático de Direito, por exemplo, o texto traz referências de legislações já estabelecidas fora das redes.
Conforme o relatório da CDR, em comum, o projeto brasileiro definia que o comportamento dos provedores deveria respeitar os direitos fundamentais, em especial as liberdades de expressão e de informação, de conduzir um negócio, o direito à não discriminação e de proteção ao consumidor. Isso inclui situações de remoção ou desativação de acesso, que só poderiam ser feitas em conformidade com o direito à liberdade de expressão e de informação, e de forma não arbitrária e não discriminatória.
Outros pontos positivos do texto brasileiro destacados pelo relatório são as medidas de transparência, como, por exemplo, a obrigatoriedade de produção de relatórios de transparência semestralmente pelas redes sociais e a obrigação de acesso a dados para pesquisadores e pesquisadoras.
Para Jonas Valente, integrante da Coalizão Direitos na Rede, essas ideias deveriam ser mantidas em eventuais novas propostas. Outra ideia positiva presente no texto engavetado, segundo ele, era a criação de um devido processo legal para a moderação, limitando o poder das plataformas digitais e empoderando a sociedade nos espaços virtuais.
Em contrapartida, um ponto considerado negativo na PL pelos especialistas era a previsão de criminalizar a disseminação de notícias falsas. Para os membros da CDR, trata-se de um perigo à proteção de direitos humanos. “Tratados, convenções e documentos internacionais de direitos humanos condenam tratar a liberdade de expressão na esfera criminal, e nos somamos a este entendimento. Não será a criminalização dos indivíduos que resolverá o problema, além de ainda criar riscos de abusos graves”, disse Maria Paula.
Neste sentido, Liz Nóbrega concorda que qualquer legislação que tentar definir o que é desinformação apresenta um grande perigo para a liberdade de expressão. Para ela, a legislação deve focar na regulação das plataformas digitais e da sua arquitetura. Trazer transparência e novas obrigações para as redes sociais pode contribuir para a construção de um ambiente mais saudável, opina a jornalista. “Trazer a ideia da avaliação de riscos sistêmicos, por exemplo, é uma forma de fazer com que as plataformas identifiquem e analisem seus sistemas em temas específicos, como crimes já previstos no Código Penal”, disse.
A criminalização da desinformação, para ela, poderia fazer com que a discussão caísse em uma espécie de ‘ministério da verdade’ ou na responsabilização de indivíduos comuns. “Uma estratégia é a criminalização do financiamento de campanhas massivas de desinformação, ou seja, responsabilizar o produtor do conteúdo”, sugeriu.