Opinião|Desafios no combate ao discurso de ódio online


Tanto usuários quanto provedores têm a ganhar com um sistema claro e eficiente de resolução e moderação de conflitos na internet e de reparação civil

Por Rony Vainzof e Fernando Lottenberg

O Marco Civil da Internet (MCI), de 2014, seguiu tendência das últimas décadas, isentando as redes sociais de responsabilidade pelo conteúdo gerado por terceiros, exceto em casos de pornografia não autorizada, violação de direitos autorais e descumprimento de ordens judiciais para remoção de conteúdo.

Porém, mais de dez anos após a vigência do MCI, o aumento do discurso de ódio e da desinformação online, somado ao papel central das redes sociais na comunicação pública, revela a necessidade de maior responsabilidade dessas plataformas na moderação de conteúdo, por mais difícil que seja a tarefa.

Atualmente, tramitam no Supremo Tribunal Federal (STF) dois casos paradigmáticos com repercussão geral envolvendo o tema. Um no sentido de o provedor de internet fiscalizar o conteúdo publicado e retirá-lo do ar quando considerado ofensivo, sem intervenção do Judiciário, e o outro discutindo a necessidade de ordem judicial de exclusão de conteúdo para a responsabilização civil de provedor, por danos decorrentes de atos ilícitos praticados por terceiros.

continua após a publicidade

Fato é que as redes sociais desempenham papel crucial nesse debate, pois é nelas que ocorrem muitos dos incidentes envolvendo discurso de ódio. Essas plataformas são frequentemente obrigadas a decidir se mantêm ou não conteúdos e perfis acusados de propagar ódio. Além disso, elas vêm desenvolvendo diretrizes internas para orientar a remoção de conteúdos e punir perfis com base nos seus próprios termos de uso.

Existem basicamente duas camadas para a moderação de conteúdo online nas redes sociais: filtragem prévia e tratamento do conteúdo após denúncia. Para ambas as situações, em que pese as redes sociais não dependerem de ordem judicial para realizarem a moderação, ao menos no recorte antissemitismo, os números do discurso de ódio são alarmantes: desde o ataque do Hamas contra Israel, em 7/10/2023, a Confederação Israelita do Brasil (Conib) constatou mais de 96 mil menções antissemitas nas redes sociais no Brasil, com o alcance potencial de mais de 93 milhões de visualizações.

Antes do Marco Civil, o Superior Tribunal de Justiça (STJ) adotava postura rigorosa, no sentido de coibir a divulgação de conteúdos depreciativos e aviltantes de forma célere. Uma vez notificada de que determinado conteúdo era ilícito, a rede social deveria retirá-lo do ar no prazo de 24 horas, sob pena de responder solidariamente com o autor direto do dano, em virtude de omissão (Recurso Especial n.º 1.323.754, de 19/2/2012).

continua após a publicidade

São diversas as normas e decisões internacionais impondo às plataformas a necessidade de adotarem o devido processo informacional na moderação de conteúdo, tais como: o Digital Millennium Copyright Act (EUA), o Direito ao Esquecimento (União Europeia), a NetzDG (Alemanha) e o Digital Services Act (União Europeia).

Não se trata de tornar ilegais discursos anteriormente lícitos, mas da obrigação de estabelecer regime de responsabilidade e conformidade para o gerenciamento de conteúdo nocivo, nos seguintes termos:

• Crimes tipificados criminalmente, como racismo, terrorismo, instigação a suicídio, violência contra mulher, ilícitos contra crianças e adolescentes, devem ser tratados e removidos em até 24 horas pelas plataformas que moderam conteúdos;

continua após a publicidade

• No caso de subjetividade do conteúdo apontado como ilícito (“ilegalidade não óbvia” da lista de crimes), as plataformas devem adotar medidas para avaliar o caso com maior profundidade e ter mais prazo até tomarem uma decisão;

• Em casos de extrema complexidade, terem prazo ainda maior e utilizarem consultores e entidades externas para ajudarem na avaliação;

• Devem também adotar medidas para limitação de alcance do conteúdo; vedação de utilização de contas inautênticas para práticas nocivas; avisos sobre a sensibilidade de determinados conteúdos; desestímulo financeiro, impedindo a monetização, suspendendo ou cancelando contas que servem para atividades ilícitas, entre outras medidas.

continua após a publicidade

Essas ações devem ser transparentes, com as plataformas divulgando periodicamente os dados e critérios utilizados na moderação de conteúdo. A transparência é essencial, tanto para o combate ao discurso de ódio quanto para a preservação da liberdade de expressão. A informação transparente ao cidadão sobre quais são os critérios decisórios é uma garantia contra o arbítrio e a seletividade e um instrumento poderoso para a fiscalização da coerência na moderação de conteúdo.

O STF tem uma excelente oportunidade de regular a responsabilização das redes sociais de acordo com as suas atividades (Artigo 3.º, inciso VI, do MCI), gerando o combate mais efetivo ao discurso de ódio e com maior segurança jurídica aos provedores de aplicações, ao delimitar quais conteúdos estariam abarcados na inconstitucionalidade do artigo 19 do MCI, além de determinar maior transparência.

Regulação não é inimiga dos direitos. Tanto usuários quanto provedores têm a ganhar com um sistema claro e eficiente de resolução e moderação de conflitos online e de reparação civil.

continua após a publicidade

*

SÃO, RESPECTIVAMENTE, ADVOGADO, SECRETÁRIO DA CONIB; E COMISSÁRIO DA OEA PARA O MONITORAMENTO E COMBATE AO ANTISSEMITISMO

O Marco Civil da Internet (MCI), de 2014, seguiu tendência das últimas décadas, isentando as redes sociais de responsabilidade pelo conteúdo gerado por terceiros, exceto em casos de pornografia não autorizada, violação de direitos autorais e descumprimento de ordens judiciais para remoção de conteúdo.

Porém, mais de dez anos após a vigência do MCI, o aumento do discurso de ódio e da desinformação online, somado ao papel central das redes sociais na comunicação pública, revela a necessidade de maior responsabilidade dessas plataformas na moderação de conteúdo, por mais difícil que seja a tarefa.

Atualmente, tramitam no Supremo Tribunal Federal (STF) dois casos paradigmáticos com repercussão geral envolvendo o tema. Um no sentido de o provedor de internet fiscalizar o conteúdo publicado e retirá-lo do ar quando considerado ofensivo, sem intervenção do Judiciário, e o outro discutindo a necessidade de ordem judicial de exclusão de conteúdo para a responsabilização civil de provedor, por danos decorrentes de atos ilícitos praticados por terceiros.

Fato é que as redes sociais desempenham papel crucial nesse debate, pois é nelas que ocorrem muitos dos incidentes envolvendo discurso de ódio. Essas plataformas são frequentemente obrigadas a decidir se mantêm ou não conteúdos e perfis acusados de propagar ódio. Além disso, elas vêm desenvolvendo diretrizes internas para orientar a remoção de conteúdos e punir perfis com base nos seus próprios termos de uso.

Existem basicamente duas camadas para a moderação de conteúdo online nas redes sociais: filtragem prévia e tratamento do conteúdo após denúncia. Para ambas as situações, em que pese as redes sociais não dependerem de ordem judicial para realizarem a moderação, ao menos no recorte antissemitismo, os números do discurso de ódio são alarmantes: desde o ataque do Hamas contra Israel, em 7/10/2023, a Confederação Israelita do Brasil (Conib) constatou mais de 96 mil menções antissemitas nas redes sociais no Brasil, com o alcance potencial de mais de 93 milhões de visualizações.

Antes do Marco Civil, o Superior Tribunal de Justiça (STJ) adotava postura rigorosa, no sentido de coibir a divulgação de conteúdos depreciativos e aviltantes de forma célere. Uma vez notificada de que determinado conteúdo era ilícito, a rede social deveria retirá-lo do ar no prazo de 24 horas, sob pena de responder solidariamente com o autor direto do dano, em virtude de omissão (Recurso Especial n.º 1.323.754, de 19/2/2012).

São diversas as normas e decisões internacionais impondo às plataformas a necessidade de adotarem o devido processo informacional na moderação de conteúdo, tais como: o Digital Millennium Copyright Act (EUA), o Direito ao Esquecimento (União Europeia), a NetzDG (Alemanha) e o Digital Services Act (União Europeia).

Não se trata de tornar ilegais discursos anteriormente lícitos, mas da obrigação de estabelecer regime de responsabilidade e conformidade para o gerenciamento de conteúdo nocivo, nos seguintes termos:

• Crimes tipificados criminalmente, como racismo, terrorismo, instigação a suicídio, violência contra mulher, ilícitos contra crianças e adolescentes, devem ser tratados e removidos em até 24 horas pelas plataformas que moderam conteúdos;

• No caso de subjetividade do conteúdo apontado como ilícito (“ilegalidade não óbvia” da lista de crimes), as plataformas devem adotar medidas para avaliar o caso com maior profundidade e ter mais prazo até tomarem uma decisão;

• Em casos de extrema complexidade, terem prazo ainda maior e utilizarem consultores e entidades externas para ajudarem na avaliação;

• Devem também adotar medidas para limitação de alcance do conteúdo; vedação de utilização de contas inautênticas para práticas nocivas; avisos sobre a sensibilidade de determinados conteúdos; desestímulo financeiro, impedindo a monetização, suspendendo ou cancelando contas que servem para atividades ilícitas, entre outras medidas.

Essas ações devem ser transparentes, com as plataformas divulgando periodicamente os dados e critérios utilizados na moderação de conteúdo. A transparência é essencial, tanto para o combate ao discurso de ódio quanto para a preservação da liberdade de expressão. A informação transparente ao cidadão sobre quais são os critérios decisórios é uma garantia contra o arbítrio e a seletividade e um instrumento poderoso para a fiscalização da coerência na moderação de conteúdo.

O STF tem uma excelente oportunidade de regular a responsabilização das redes sociais de acordo com as suas atividades (Artigo 3.º, inciso VI, do MCI), gerando o combate mais efetivo ao discurso de ódio e com maior segurança jurídica aos provedores de aplicações, ao delimitar quais conteúdos estariam abarcados na inconstitucionalidade do artigo 19 do MCI, além de determinar maior transparência.

Regulação não é inimiga dos direitos. Tanto usuários quanto provedores têm a ganhar com um sistema claro e eficiente de resolução e moderação de conflitos online e de reparação civil.

*

SÃO, RESPECTIVAMENTE, ADVOGADO, SECRETÁRIO DA CONIB; E COMISSÁRIO DA OEA PARA O MONITORAMENTO E COMBATE AO ANTISSEMITISMO

O Marco Civil da Internet (MCI), de 2014, seguiu tendência das últimas décadas, isentando as redes sociais de responsabilidade pelo conteúdo gerado por terceiros, exceto em casos de pornografia não autorizada, violação de direitos autorais e descumprimento de ordens judiciais para remoção de conteúdo.

Porém, mais de dez anos após a vigência do MCI, o aumento do discurso de ódio e da desinformação online, somado ao papel central das redes sociais na comunicação pública, revela a necessidade de maior responsabilidade dessas plataformas na moderação de conteúdo, por mais difícil que seja a tarefa.

Atualmente, tramitam no Supremo Tribunal Federal (STF) dois casos paradigmáticos com repercussão geral envolvendo o tema. Um no sentido de o provedor de internet fiscalizar o conteúdo publicado e retirá-lo do ar quando considerado ofensivo, sem intervenção do Judiciário, e o outro discutindo a necessidade de ordem judicial de exclusão de conteúdo para a responsabilização civil de provedor, por danos decorrentes de atos ilícitos praticados por terceiros.

Fato é que as redes sociais desempenham papel crucial nesse debate, pois é nelas que ocorrem muitos dos incidentes envolvendo discurso de ódio. Essas plataformas são frequentemente obrigadas a decidir se mantêm ou não conteúdos e perfis acusados de propagar ódio. Além disso, elas vêm desenvolvendo diretrizes internas para orientar a remoção de conteúdos e punir perfis com base nos seus próprios termos de uso.

Existem basicamente duas camadas para a moderação de conteúdo online nas redes sociais: filtragem prévia e tratamento do conteúdo após denúncia. Para ambas as situações, em que pese as redes sociais não dependerem de ordem judicial para realizarem a moderação, ao menos no recorte antissemitismo, os números do discurso de ódio são alarmantes: desde o ataque do Hamas contra Israel, em 7/10/2023, a Confederação Israelita do Brasil (Conib) constatou mais de 96 mil menções antissemitas nas redes sociais no Brasil, com o alcance potencial de mais de 93 milhões de visualizações.

Antes do Marco Civil, o Superior Tribunal de Justiça (STJ) adotava postura rigorosa, no sentido de coibir a divulgação de conteúdos depreciativos e aviltantes de forma célere. Uma vez notificada de que determinado conteúdo era ilícito, a rede social deveria retirá-lo do ar no prazo de 24 horas, sob pena de responder solidariamente com o autor direto do dano, em virtude de omissão (Recurso Especial n.º 1.323.754, de 19/2/2012).

São diversas as normas e decisões internacionais impondo às plataformas a necessidade de adotarem o devido processo informacional na moderação de conteúdo, tais como: o Digital Millennium Copyright Act (EUA), o Direito ao Esquecimento (União Europeia), a NetzDG (Alemanha) e o Digital Services Act (União Europeia).

Não se trata de tornar ilegais discursos anteriormente lícitos, mas da obrigação de estabelecer regime de responsabilidade e conformidade para o gerenciamento de conteúdo nocivo, nos seguintes termos:

• Crimes tipificados criminalmente, como racismo, terrorismo, instigação a suicídio, violência contra mulher, ilícitos contra crianças e adolescentes, devem ser tratados e removidos em até 24 horas pelas plataformas que moderam conteúdos;

• No caso de subjetividade do conteúdo apontado como ilícito (“ilegalidade não óbvia” da lista de crimes), as plataformas devem adotar medidas para avaliar o caso com maior profundidade e ter mais prazo até tomarem uma decisão;

• Em casos de extrema complexidade, terem prazo ainda maior e utilizarem consultores e entidades externas para ajudarem na avaliação;

• Devem também adotar medidas para limitação de alcance do conteúdo; vedação de utilização de contas inautênticas para práticas nocivas; avisos sobre a sensibilidade de determinados conteúdos; desestímulo financeiro, impedindo a monetização, suspendendo ou cancelando contas que servem para atividades ilícitas, entre outras medidas.

Essas ações devem ser transparentes, com as plataformas divulgando periodicamente os dados e critérios utilizados na moderação de conteúdo. A transparência é essencial, tanto para o combate ao discurso de ódio quanto para a preservação da liberdade de expressão. A informação transparente ao cidadão sobre quais são os critérios decisórios é uma garantia contra o arbítrio e a seletividade e um instrumento poderoso para a fiscalização da coerência na moderação de conteúdo.

O STF tem uma excelente oportunidade de regular a responsabilização das redes sociais de acordo com as suas atividades (Artigo 3.º, inciso VI, do MCI), gerando o combate mais efetivo ao discurso de ódio e com maior segurança jurídica aos provedores de aplicações, ao delimitar quais conteúdos estariam abarcados na inconstitucionalidade do artigo 19 do MCI, além de determinar maior transparência.

Regulação não é inimiga dos direitos. Tanto usuários quanto provedores têm a ganhar com um sistema claro e eficiente de resolução e moderação de conflitos online e de reparação civil.

*

SÃO, RESPECTIVAMENTE, ADVOGADO, SECRETÁRIO DA CONIB; E COMISSÁRIO DA OEA PARA O MONITORAMENTO E COMBATE AO ANTISSEMITISMO

O Marco Civil da Internet (MCI), de 2014, seguiu tendência das últimas décadas, isentando as redes sociais de responsabilidade pelo conteúdo gerado por terceiros, exceto em casos de pornografia não autorizada, violação de direitos autorais e descumprimento de ordens judiciais para remoção de conteúdo.

Porém, mais de dez anos após a vigência do MCI, o aumento do discurso de ódio e da desinformação online, somado ao papel central das redes sociais na comunicação pública, revela a necessidade de maior responsabilidade dessas plataformas na moderação de conteúdo, por mais difícil que seja a tarefa.

Atualmente, tramitam no Supremo Tribunal Federal (STF) dois casos paradigmáticos com repercussão geral envolvendo o tema. Um no sentido de o provedor de internet fiscalizar o conteúdo publicado e retirá-lo do ar quando considerado ofensivo, sem intervenção do Judiciário, e o outro discutindo a necessidade de ordem judicial de exclusão de conteúdo para a responsabilização civil de provedor, por danos decorrentes de atos ilícitos praticados por terceiros.

Fato é que as redes sociais desempenham papel crucial nesse debate, pois é nelas que ocorrem muitos dos incidentes envolvendo discurso de ódio. Essas plataformas são frequentemente obrigadas a decidir se mantêm ou não conteúdos e perfis acusados de propagar ódio. Além disso, elas vêm desenvolvendo diretrizes internas para orientar a remoção de conteúdos e punir perfis com base nos seus próprios termos de uso.

Existem basicamente duas camadas para a moderação de conteúdo online nas redes sociais: filtragem prévia e tratamento do conteúdo após denúncia. Para ambas as situações, em que pese as redes sociais não dependerem de ordem judicial para realizarem a moderação, ao menos no recorte antissemitismo, os números do discurso de ódio são alarmantes: desde o ataque do Hamas contra Israel, em 7/10/2023, a Confederação Israelita do Brasil (Conib) constatou mais de 96 mil menções antissemitas nas redes sociais no Brasil, com o alcance potencial de mais de 93 milhões de visualizações.

Antes do Marco Civil, o Superior Tribunal de Justiça (STJ) adotava postura rigorosa, no sentido de coibir a divulgação de conteúdos depreciativos e aviltantes de forma célere. Uma vez notificada de que determinado conteúdo era ilícito, a rede social deveria retirá-lo do ar no prazo de 24 horas, sob pena de responder solidariamente com o autor direto do dano, em virtude de omissão (Recurso Especial n.º 1.323.754, de 19/2/2012).

São diversas as normas e decisões internacionais impondo às plataformas a necessidade de adotarem o devido processo informacional na moderação de conteúdo, tais como: o Digital Millennium Copyright Act (EUA), o Direito ao Esquecimento (União Europeia), a NetzDG (Alemanha) e o Digital Services Act (União Europeia).

Não se trata de tornar ilegais discursos anteriormente lícitos, mas da obrigação de estabelecer regime de responsabilidade e conformidade para o gerenciamento de conteúdo nocivo, nos seguintes termos:

• Crimes tipificados criminalmente, como racismo, terrorismo, instigação a suicídio, violência contra mulher, ilícitos contra crianças e adolescentes, devem ser tratados e removidos em até 24 horas pelas plataformas que moderam conteúdos;

• No caso de subjetividade do conteúdo apontado como ilícito (“ilegalidade não óbvia” da lista de crimes), as plataformas devem adotar medidas para avaliar o caso com maior profundidade e ter mais prazo até tomarem uma decisão;

• Em casos de extrema complexidade, terem prazo ainda maior e utilizarem consultores e entidades externas para ajudarem na avaliação;

• Devem também adotar medidas para limitação de alcance do conteúdo; vedação de utilização de contas inautênticas para práticas nocivas; avisos sobre a sensibilidade de determinados conteúdos; desestímulo financeiro, impedindo a monetização, suspendendo ou cancelando contas que servem para atividades ilícitas, entre outras medidas.

Essas ações devem ser transparentes, com as plataformas divulgando periodicamente os dados e critérios utilizados na moderação de conteúdo. A transparência é essencial, tanto para o combate ao discurso de ódio quanto para a preservação da liberdade de expressão. A informação transparente ao cidadão sobre quais são os critérios decisórios é uma garantia contra o arbítrio e a seletividade e um instrumento poderoso para a fiscalização da coerência na moderação de conteúdo.

O STF tem uma excelente oportunidade de regular a responsabilização das redes sociais de acordo com as suas atividades (Artigo 3.º, inciso VI, do MCI), gerando o combate mais efetivo ao discurso de ódio e com maior segurança jurídica aos provedores de aplicações, ao delimitar quais conteúdos estariam abarcados na inconstitucionalidade do artigo 19 do MCI, além de determinar maior transparência.

Regulação não é inimiga dos direitos. Tanto usuários quanto provedores têm a ganhar com um sistema claro e eficiente de resolução e moderação de conflitos online e de reparação civil.

*

SÃO, RESPECTIVAMENTE, ADVOGADO, SECRETÁRIO DA CONIB; E COMISSÁRIO DA OEA PARA O MONITORAMENTO E COMBATE AO ANTISSEMITISMO

Opinião por Rony Vainzof

Advogado, é secretário da Conib

Fernando Lottenberg

É comissário da OEA para o Monitoramento e Combate ao Antissemitismo

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.