Opinião|O STF e o combate ao discurso de ódio online


O devido processo informacional é cogente no Brasil e o STF tem papel relevante neste cenário, como guardião de direitos e garantias fundamentais, incluindo os digitais

Por Rony Vainzof e Fernando Lottenberg

Em precedente histórico julgado há 20 anos, no chamado Caso Ellwanger, ao entender que raça só existe uma – a humana – e confirmar que o tipo penal de racismo compreendia também o antissemitismo, o Supremo Tribunal Federal (STF) posicionou-se como garantidor da proteção de direitos fundamentais dos indivíduos. Posteriormente, vieram outros tantos julgamentos relevantes, como a caracterização da homofobia como forma de racismo e a equiparação da injúria racial ao crime de racismo.

Agora, mais uma vez, é o caso de o STF se fazer presente, ao avaliar o artigo 19 do Marco Civil da Internet e a responsabilidade das plataformas digitais, como forma de mitigar o discurso de ódio online e outros ilícitos cibernéticos, protegendo direitos fundamentais e abrindo caminho para o Legislativo em questões essenciais da dignidade da pessoa humana.

Se dos anos 1990 até 2014 houve a criação de direitos para isentar intermediários de responsabilidades, com a legítima preocupação de proteger a liberdade de expressão e a inovação, agora, diante do uso intenso e da relevância das novas tecnologias para as relações humanas, as plataformas são pressionadas a adotar medidas concretas para mitigar os efeitos negativos de campanhas de desinformação e crimes de ódio - entre outros ilícitos – e a estabelecer regras e procedimentos para a moderação de conteúdo e comportamento, o chamado devido processo informacional.

continua após a publicidade

Desde 2014, quando o Tribunal de Justiça da União Europeia julgou o caso do espanhol Mario Costeja González, o Google foi obrigado a desenvolver procedimentos internos para avaliar e, se fosse o caso, remover resultados de busca “incorretos, inadequados, irrelevantes ou excessivos”.

Desde 1.º de outubro de 2017, a NetzDG, a lei alemã, obriga redes sociais com mais de 2 milhões de usuários naquele país a remover localmente conteúdo “evidentemente ilegal”, definido em determinados tipos penais, em até 24 horas após a denúncia. Para ilegalidades não óbvias, têm até sete dias para decidir sobre o caso. Em casos excepcionais, esse processo pode demorar mais tempo, inclusive levando para consultores externos ou órgãos chancelados dentro do mecanismo da autorregulação regulada. Outra obrigação é o relatório periódico de transparência, acerca do devido processo informacional.

Em novembro de 2022, foi aprovado na União Europeia o Digital Services Act, trazendo conceitos para os mais variados tipos de provedores de aplicação e suas respectivas obrigações dentro do mesmo contexto.

continua após a publicidade

Em breve, a Suprema Corte dos EUA também deve decidir se as plataformas podem ser responsabilizadas por amplificar conteúdo lesivo aos usuários por meio de seus algoritmos, avaliando a isenção de responsabilidade prevista na Seção 230 do Communications Decency Act.

Seguindo parâmetros internacionais, discursos de ódio tipificados criminalmente deveriam ser removidos em até 24 horas também das plataformas que operam no Brasil. No caso de maior subjetivismo do conteúdo denunciado, o limite deveria ser de até sete dias da ciência para as plataformas tomarem uma decisão, após adotarem as medidas que entenderem pertinentes para avaliação do caso. Para assuntos de extrema complexidade, poderia haver dilação de prazo e utilização de entidades chanceladas pela Estado ou consultores externos, dentro de um possível instituto de autorregulação regulada.

Mecanismos para: 1) limitação de alcance para algumas publicações e calibragem de algoritmos; 2) vedação de utilização de contas inautênticas ou automatizadas para práticas nocivas; 3) disponibilização de ferramentas de aviso sobre a sensibilidade de determinados conteúdos; 4) prazos para remoção de conteúdo; 5) formas de desestímulo financeiro, suspensão ou cancelamento de contas utilizadas para atividades ilícitas; entre outras medidas, devem ser declaradas pública e periodicamente de forma transparente, detalhada e precisa pelas plataformas, para escrutínio da sociedade, pesquisas acadêmicas, auditorias e fiscalização do desempenho no combate ao discurso de ódio e mitigação de conteúdo nocivo.

continua após a publicidade

Há interesse público, portanto, na transparência sobre os critérios de decisão das plataformas digitais, pois eles afetam a forma como a “atual esfera pública” é constituída. O devido processo informacional é cogente no Brasil e o STF tem papel relevante neste cenário, como guardião de direitos e garantias fundamentais, incluindo os digitais.

*

SÃO, RESPECTIVAMENTE, SECRETÁRIO DA CONFEDERAÇÃO ISRAELITA DO BRASIL, COORDENADOR DA PÓS-GRADUAÇÃO EM DIREITO DIGITAL DA ESCOLA PAULISTA DE DIREITO E SÓCIO DO OPICE BLUM, BRUNO E VAINZOF ADVOGADOS; E COMISSÁRIO DA OEA PARA O MONITORAMENTO E COMBATE AO ANTISSEMITISMO, SÓCIO DE LOTTENBERG ADVOGADOS

Em precedente histórico julgado há 20 anos, no chamado Caso Ellwanger, ao entender que raça só existe uma – a humana – e confirmar que o tipo penal de racismo compreendia também o antissemitismo, o Supremo Tribunal Federal (STF) posicionou-se como garantidor da proteção de direitos fundamentais dos indivíduos. Posteriormente, vieram outros tantos julgamentos relevantes, como a caracterização da homofobia como forma de racismo e a equiparação da injúria racial ao crime de racismo.

Agora, mais uma vez, é o caso de o STF se fazer presente, ao avaliar o artigo 19 do Marco Civil da Internet e a responsabilidade das plataformas digitais, como forma de mitigar o discurso de ódio online e outros ilícitos cibernéticos, protegendo direitos fundamentais e abrindo caminho para o Legislativo em questões essenciais da dignidade da pessoa humana.

Se dos anos 1990 até 2014 houve a criação de direitos para isentar intermediários de responsabilidades, com a legítima preocupação de proteger a liberdade de expressão e a inovação, agora, diante do uso intenso e da relevância das novas tecnologias para as relações humanas, as plataformas são pressionadas a adotar medidas concretas para mitigar os efeitos negativos de campanhas de desinformação e crimes de ódio - entre outros ilícitos – e a estabelecer regras e procedimentos para a moderação de conteúdo e comportamento, o chamado devido processo informacional.

Desde 2014, quando o Tribunal de Justiça da União Europeia julgou o caso do espanhol Mario Costeja González, o Google foi obrigado a desenvolver procedimentos internos para avaliar e, se fosse o caso, remover resultados de busca “incorretos, inadequados, irrelevantes ou excessivos”.

Desde 1.º de outubro de 2017, a NetzDG, a lei alemã, obriga redes sociais com mais de 2 milhões de usuários naquele país a remover localmente conteúdo “evidentemente ilegal”, definido em determinados tipos penais, em até 24 horas após a denúncia. Para ilegalidades não óbvias, têm até sete dias para decidir sobre o caso. Em casos excepcionais, esse processo pode demorar mais tempo, inclusive levando para consultores externos ou órgãos chancelados dentro do mecanismo da autorregulação regulada. Outra obrigação é o relatório periódico de transparência, acerca do devido processo informacional.

Em novembro de 2022, foi aprovado na União Europeia o Digital Services Act, trazendo conceitos para os mais variados tipos de provedores de aplicação e suas respectivas obrigações dentro do mesmo contexto.

Em breve, a Suprema Corte dos EUA também deve decidir se as plataformas podem ser responsabilizadas por amplificar conteúdo lesivo aos usuários por meio de seus algoritmos, avaliando a isenção de responsabilidade prevista na Seção 230 do Communications Decency Act.

Seguindo parâmetros internacionais, discursos de ódio tipificados criminalmente deveriam ser removidos em até 24 horas também das plataformas que operam no Brasil. No caso de maior subjetivismo do conteúdo denunciado, o limite deveria ser de até sete dias da ciência para as plataformas tomarem uma decisão, após adotarem as medidas que entenderem pertinentes para avaliação do caso. Para assuntos de extrema complexidade, poderia haver dilação de prazo e utilização de entidades chanceladas pela Estado ou consultores externos, dentro de um possível instituto de autorregulação regulada.

Mecanismos para: 1) limitação de alcance para algumas publicações e calibragem de algoritmos; 2) vedação de utilização de contas inautênticas ou automatizadas para práticas nocivas; 3) disponibilização de ferramentas de aviso sobre a sensibilidade de determinados conteúdos; 4) prazos para remoção de conteúdo; 5) formas de desestímulo financeiro, suspensão ou cancelamento de contas utilizadas para atividades ilícitas; entre outras medidas, devem ser declaradas pública e periodicamente de forma transparente, detalhada e precisa pelas plataformas, para escrutínio da sociedade, pesquisas acadêmicas, auditorias e fiscalização do desempenho no combate ao discurso de ódio e mitigação de conteúdo nocivo.

Há interesse público, portanto, na transparência sobre os critérios de decisão das plataformas digitais, pois eles afetam a forma como a “atual esfera pública” é constituída. O devido processo informacional é cogente no Brasil e o STF tem papel relevante neste cenário, como guardião de direitos e garantias fundamentais, incluindo os digitais.

*

SÃO, RESPECTIVAMENTE, SECRETÁRIO DA CONFEDERAÇÃO ISRAELITA DO BRASIL, COORDENADOR DA PÓS-GRADUAÇÃO EM DIREITO DIGITAL DA ESCOLA PAULISTA DE DIREITO E SÓCIO DO OPICE BLUM, BRUNO E VAINZOF ADVOGADOS; E COMISSÁRIO DA OEA PARA O MONITORAMENTO E COMBATE AO ANTISSEMITISMO, SÓCIO DE LOTTENBERG ADVOGADOS

Em precedente histórico julgado há 20 anos, no chamado Caso Ellwanger, ao entender que raça só existe uma – a humana – e confirmar que o tipo penal de racismo compreendia também o antissemitismo, o Supremo Tribunal Federal (STF) posicionou-se como garantidor da proteção de direitos fundamentais dos indivíduos. Posteriormente, vieram outros tantos julgamentos relevantes, como a caracterização da homofobia como forma de racismo e a equiparação da injúria racial ao crime de racismo.

Agora, mais uma vez, é o caso de o STF se fazer presente, ao avaliar o artigo 19 do Marco Civil da Internet e a responsabilidade das plataformas digitais, como forma de mitigar o discurso de ódio online e outros ilícitos cibernéticos, protegendo direitos fundamentais e abrindo caminho para o Legislativo em questões essenciais da dignidade da pessoa humana.

Se dos anos 1990 até 2014 houve a criação de direitos para isentar intermediários de responsabilidades, com a legítima preocupação de proteger a liberdade de expressão e a inovação, agora, diante do uso intenso e da relevância das novas tecnologias para as relações humanas, as plataformas são pressionadas a adotar medidas concretas para mitigar os efeitos negativos de campanhas de desinformação e crimes de ódio - entre outros ilícitos – e a estabelecer regras e procedimentos para a moderação de conteúdo e comportamento, o chamado devido processo informacional.

Desde 2014, quando o Tribunal de Justiça da União Europeia julgou o caso do espanhol Mario Costeja González, o Google foi obrigado a desenvolver procedimentos internos para avaliar e, se fosse o caso, remover resultados de busca “incorretos, inadequados, irrelevantes ou excessivos”.

Desde 1.º de outubro de 2017, a NetzDG, a lei alemã, obriga redes sociais com mais de 2 milhões de usuários naquele país a remover localmente conteúdo “evidentemente ilegal”, definido em determinados tipos penais, em até 24 horas após a denúncia. Para ilegalidades não óbvias, têm até sete dias para decidir sobre o caso. Em casos excepcionais, esse processo pode demorar mais tempo, inclusive levando para consultores externos ou órgãos chancelados dentro do mecanismo da autorregulação regulada. Outra obrigação é o relatório periódico de transparência, acerca do devido processo informacional.

Em novembro de 2022, foi aprovado na União Europeia o Digital Services Act, trazendo conceitos para os mais variados tipos de provedores de aplicação e suas respectivas obrigações dentro do mesmo contexto.

Em breve, a Suprema Corte dos EUA também deve decidir se as plataformas podem ser responsabilizadas por amplificar conteúdo lesivo aos usuários por meio de seus algoritmos, avaliando a isenção de responsabilidade prevista na Seção 230 do Communications Decency Act.

Seguindo parâmetros internacionais, discursos de ódio tipificados criminalmente deveriam ser removidos em até 24 horas também das plataformas que operam no Brasil. No caso de maior subjetivismo do conteúdo denunciado, o limite deveria ser de até sete dias da ciência para as plataformas tomarem uma decisão, após adotarem as medidas que entenderem pertinentes para avaliação do caso. Para assuntos de extrema complexidade, poderia haver dilação de prazo e utilização de entidades chanceladas pela Estado ou consultores externos, dentro de um possível instituto de autorregulação regulada.

Mecanismos para: 1) limitação de alcance para algumas publicações e calibragem de algoritmos; 2) vedação de utilização de contas inautênticas ou automatizadas para práticas nocivas; 3) disponibilização de ferramentas de aviso sobre a sensibilidade de determinados conteúdos; 4) prazos para remoção de conteúdo; 5) formas de desestímulo financeiro, suspensão ou cancelamento de contas utilizadas para atividades ilícitas; entre outras medidas, devem ser declaradas pública e periodicamente de forma transparente, detalhada e precisa pelas plataformas, para escrutínio da sociedade, pesquisas acadêmicas, auditorias e fiscalização do desempenho no combate ao discurso de ódio e mitigação de conteúdo nocivo.

Há interesse público, portanto, na transparência sobre os critérios de decisão das plataformas digitais, pois eles afetam a forma como a “atual esfera pública” é constituída. O devido processo informacional é cogente no Brasil e o STF tem papel relevante neste cenário, como guardião de direitos e garantias fundamentais, incluindo os digitais.

*

SÃO, RESPECTIVAMENTE, SECRETÁRIO DA CONFEDERAÇÃO ISRAELITA DO BRASIL, COORDENADOR DA PÓS-GRADUAÇÃO EM DIREITO DIGITAL DA ESCOLA PAULISTA DE DIREITO E SÓCIO DO OPICE BLUM, BRUNO E VAINZOF ADVOGADOS; E COMISSÁRIO DA OEA PARA O MONITORAMENTO E COMBATE AO ANTISSEMITISMO, SÓCIO DE LOTTENBERG ADVOGADOS

Em precedente histórico julgado há 20 anos, no chamado Caso Ellwanger, ao entender que raça só existe uma – a humana – e confirmar que o tipo penal de racismo compreendia também o antissemitismo, o Supremo Tribunal Federal (STF) posicionou-se como garantidor da proteção de direitos fundamentais dos indivíduos. Posteriormente, vieram outros tantos julgamentos relevantes, como a caracterização da homofobia como forma de racismo e a equiparação da injúria racial ao crime de racismo.

Agora, mais uma vez, é o caso de o STF se fazer presente, ao avaliar o artigo 19 do Marco Civil da Internet e a responsabilidade das plataformas digitais, como forma de mitigar o discurso de ódio online e outros ilícitos cibernéticos, protegendo direitos fundamentais e abrindo caminho para o Legislativo em questões essenciais da dignidade da pessoa humana.

Se dos anos 1990 até 2014 houve a criação de direitos para isentar intermediários de responsabilidades, com a legítima preocupação de proteger a liberdade de expressão e a inovação, agora, diante do uso intenso e da relevância das novas tecnologias para as relações humanas, as plataformas são pressionadas a adotar medidas concretas para mitigar os efeitos negativos de campanhas de desinformação e crimes de ódio - entre outros ilícitos – e a estabelecer regras e procedimentos para a moderação de conteúdo e comportamento, o chamado devido processo informacional.

Desde 2014, quando o Tribunal de Justiça da União Europeia julgou o caso do espanhol Mario Costeja González, o Google foi obrigado a desenvolver procedimentos internos para avaliar e, se fosse o caso, remover resultados de busca “incorretos, inadequados, irrelevantes ou excessivos”.

Desde 1.º de outubro de 2017, a NetzDG, a lei alemã, obriga redes sociais com mais de 2 milhões de usuários naquele país a remover localmente conteúdo “evidentemente ilegal”, definido em determinados tipos penais, em até 24 horas após a denúncia. Para ilegalidades não óbvias, têm até sete dias para decidir sobre o caso. Em casos excepcionais, esse processo pode demorar mais tempo, inclusive levando para consultores externos ou órgãos chancelados dentro do mecanismo da autorregulação regulada. Outra obrigação é o relatório periódico de transparência, acerca do devido processo informacional.

Em novembro de 2022, foi aprovado na União Europeia o Digital Services Act, trazendo conceitos para os mais variados tipos de provedores de aplicação e suas respectivas obrigações dentro do mesmo contexto.

Em breve, a Suprema Corte dos EUA também deve decidir se as plataformas podem ser responsabilizadas por amplificar conteúdo lesivo aos usuários por meio de seus algoritmos, avaliando a isenção de responsabilidade prevista na Seção 230 do Communications Decency Act.

Seguindo parâmetros internacionais, discursos de ódio tipificados criminalmente deveriam ser removidos em até 24 horas também das plataformas que operam no Brasil. No caso de maior subjetivismo do conteúdo denunciado, o limite deveria ser de até sete dias da ciência para as plataformas tomarem uma decisão, após adotarem as medidas que entenderem pertinentes para avaliação do caso. Para assuntos de extrema complexidade, poderia haver dilação de prazo e utilização de entidades chanceladas pela Estado ou consultores externos, dentro de um possível instituto de autorregulação regulada.

Mecanismos para: 1) limitação de alcance para algumas publicações e calibragem de algoritmos; 2) vedação de utilização de contas inautênticas ou automatizadas para práticas nocivas; 3) disponibilização de ferramentas de aviso sobre a sensibilidade de determinados conteúdos; 4) prazos para remoção de conteúdo; 5) formas de desestímulo financeiro, suspensão ou cancelamento de contas utilizadas para atividades ilícitas; entre outras medidas, devem ser declaradas pública e periodicamente de forma transparente, detalhada e precisa pelas plataformas, para escrutínio da sociedade, pesquisas acadêmicas, auditorias e fiscalização do desempenho no combate ao discurso de ódio e mitigação de conteúdo nocivo.

Há interesse público, portanto, na transparência sobre os critérios de decisão das plataformas digitais, pois eles afetam a forma como a “atual esfera pública” é constituída. O devido processo informacional é cogente no Brasil e o STF tem papel relevante neste cenário, como guardião de direitos e garantias fundamentais, incluindo os digitais.

*

SÃO, RESPECTIVAMENTE, SECRETÁRIO DA CONFEDERAÇÃO ISRAELITA DO BRASIL, COORDENADOR DA PÓS-GRADUAÇÃO EM DIREITO DIGITAL DA ESCOLA PAULISTA DE DIREITO E SÓCIO DO OPICE BLUM, BRUNO E VAINZOF ADVOGADOS; E COMISSÁRIO DA OEA PARA O MONITORAMENTO E COMBATE AO ANTISSEMITISMO, SÓCIO DE LOTTENBERG ADVOGADOS

Em precedente histórico julgado há 20 anos, no chamado Caso Ellwanger, ao entender que raça só existe uma – a humana – e confirmar que o tipo penal de racismo compreendia também o antissemitismo, o Supremo Tribunal Federal (STF) posicionou-se como garantidor da proteção de direitos fundamentais dos indivíduos. Posteriormente, vieram outros tantos julgamentos relevantes, como a caracterização da homofobia como forma de racismo e a equiparação da injúria racial ao crime de racismo.

Agora, mais uma vez, é o caso de o STF se fazer presente, ao avaliar o artigo 19 do Marco Civil da Internet e a responsabilidade das plataformas digitais, como forma de mitigar o discurso de ódio online e outros ilícitos cibernéticos, protegendo direitos fundamentais e abrindo caminho para o Legislativo em questões essenciais da dignidade da pessoa humana.

Se dos anos 1990 até 2014 houve a criação de direitos para isentar intermediários de responsabilidades, com a legítima preocupação de proteger a liberdade de expressão e a inovação, agora, diante do uso intenso e da relevância das novas tecnologias para as relações humanas, as plataformas são pressionadas a adotar medidas concretas para mitigar os efeitos negativos de campanhas de desinformação e crimes de ódio - entre outros ilícitos – e a estabelecer regras e procedimentos para a moderação de conteúdo e comportamento, o chamado devido processo informacional.

Desde 2014, quando o Tribunal de Justiça da União Europeia julgou o caso do espanhol Mario Costeja González, o Google foi obrigado a desenvolver procedimentos internos para avaliar e, se fosse o caso, remover resultados de busca “incorretos, inadequados, irrelevantes ou excessivos”.

Desde 1.º de outubro de 2017, a NetzDG, a lei alemã, obriga redes sociais com mais de 2 milhões de usuários naquele país a remover localmente conteúdo “evidentemente ilegal”, definido em determinados tipos penais, em até 24 horas após a denúncia. Para ilegalidades não óbvias, têm até sete dias para decidir sobre o caso. Em casos excepcionais, esse processo pode demorar mais tempo, inclusive levando para consultores externos ou órgãos chancelados dentro do mecanismo da autorregulação regulada. Outra obrigação é o relatório periódico de transparência, acerca do devido processo informacional.

Em novembro de 2022, foi aprovado na União Europeia o Digital Services Act, trazendo conceitos para os mais variados tipos de provedores de aplicação e suas respectivas obrigações dentro do mesmo contexto.

Em breve, a Suprema Corte dos EUA também deve decidir se as plataformas podem ser responsabilizadas por amplificar conteúdo lesivo aos usuários por meio de seus algoritmos, avaliando a isenção de responsabilidade prevista na Seção 230 do Communications Decency Act.

Seguindo parâmetros internacionais, discursos de ódio tipificados criminalmente deveriam ser removidos em até 24 horas também das plataformas que operam no Brasil. No caso de maior subjetivismo do conteúdo denunciado, o limite deveria ser de até sete dias da ciência para as plataformas tomarem uma decisão, após adotarem as medidas que entenderem pertinentes para avaliação do caso. Para assuntos de extrema complexidade, poderia haver dilação de prazo e utilização de entidades chanceladas pela Estado ou consultores externos, dentro de um possível instituto de autorregulação regulada.

Mecanismos para: 1) limitação de alcance para algumas publicações e calibragem de algoritmos; 2) vedação de utilização de contas inautênticas ou automatizadas para práticas nocivas; 3) disponibilização de ferramentas de aviso sobre a sensibilidade de determinados conteúdos; 4) prazos para remoção de conteúdo; 5) formas de desestímulo financeiro, suspensão ou cancelamento de contas utilizadas para atividades ilícitas; entre outras medidas, devem ser declaradas pública e periodicamente de forma transparente, detalhada e precisa pelas plataformas, para escrutínio da sociedade, pesquisas acadêmicas, auditorias e fiscalização do desempenho no combate ao discurso de ódio e mitigação de conteúdo nocivo.

Há interesse público, portanto, na transparência sobre os critérios de decisão das plataformas digitais, pois eles afetam a forma como a “atual esfera pública” é constituída. O devido processo informacional é cogente no Brasil e o STF tem papel relevante neste cenário, como guardião de direitos e garantias fundamentais, incluindo os digitais.

*

SÃO, RESPECTIVAMENTE, SECRETÁRIO DA CONFEDERAÇÃO ISRAELITA DO BRASIL, COORDENADOR DA PÓS-GRADUAÇÃO EM DIREITO DIGITAL DA ESCOLA PAULISTA DE DIREITO E SÓCIO DO OPICE BLUM, BRUNO E VAINZOF ADVOGADOS; E COMISSÁRIO DA OEA PARA O MONITORAMENTO E COMBATE AO ANTISSEMITISMO, SÓCIO DE LOTTENBERG ADVOGADOS

Opinião por Rony Vainzof e Fernando Lottenberg

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.