Jornalismo, educação, tecnologia e as combinações disso tudo

Opinião|Quem diz o que pode e o que não pode na Internet


Por Paulo Silvestre
A estátua da Justiça, diante do STF: ministros julgam o artigo 19 do Marco Civil da Internet - Foto: Marcelo Casal Jr./Agência Brasil

Na quarta passada, o STF (Supremo Tribunal Federal) começou um julgamento que pode impactar profundamente como usamos a Internet e como ela nos influencia. Ele se refere ao artigo 19 do Marco Civil da Internet, que estabelece que a responsabilidade sobre um conteúdo publicado nas redes sociais é de seu criador, com essas plataformas respondendo por ele apenas se não tomarem providências após uma decisão judicial.

A despeito da enorme importância do tema, é preciso questionar quem deve decidir sobre isso e por qual motivo.

continua após a publicidade

Publicado no dia 23 de abril de 2014, esse mecanismo visa proteger a liberdade de expressão, impedir a censura e garantir a inovação da Internet. Ele se alinha à seção 230 da CDA (sigla em inglês para "Lei de Decência nas Comunicações"), trecho dessa lei americana de 1996 chamado de "as 26 palavras que criaram a Internet".

Esses princípios continuam valendo, mas o mundo mudou profundamente nessa década. As plataformas digitais deixaram de ser neutras no momento em que seus algoritmos passaram a ativamente promover o que gerava mais engajamento e consequentemente lucros. Ainda assim, essas empresas continuaram se beneficiando dessa proteção jurídica, mesmo quando tais conteúdos destacados levaram à extrema polarização social e à deterioração da saúde mental dos seus usuários.

Criou-se uma situação em que a sociedade padece exponencialmente com os mais diversos abusos nas plataformas digitais, com pouco ou nada sendo feito sobre isso. O Legislativo deveria então atualizar a lei, mas a letargia do Congresso Nacional no tema acaba pressionando a Justiça. E isso é ruim, porque diminui o debate democrático em torno de algo crítico para nossas vidas.

continua após a publicidade

Veja esse artigo em vídeo:

continua após a publicidade

Para Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propagando e Marketing), "nesse contexto, é justo que as plataformas assumam responsabilidades proporcionais pelos impactos dessas escolhas algorítmicas". Mas ele alerta que não basta simplesmente atribuir o ônus às plataformas. "Eventual regulação deve estabelecer limites claros e mecanismos de contestação para que a moderação não se transforme em censura ou inviabilize a atividade", explica.

"A responsabilidade excessiva pode levar as plataformas a adotarem uma postura conservadora, eliminando conteúdos legítimos por receio de sanções", adverte Antonielle Freitas, especialista em direito digital e proteção de dados do Viseu Advogados. "Isso pode, sim, configurar censura, prejudicando o debate público e a liberdade de expressão", acrescenta.

continua após a publicidade

O Congresso já tratou do tema, com o projeto de lei 2630/2020, apelidado de "PL das Fake News", que foi enterrado na Câmara dos Deputados em maio do ano passado. Ele propunha regulamentar o combate à desinformação e ao discurso de ódio, estabelecendo transparência e responsabilização das plataformas digitais.

Ironicamente ele foi vítima de desinformação, promovida por alguns grupos sociais e pelas próprias big techs, que convenceram a população e deputados federais que a lei promoveria censura estatal e restringiria a liberdade de expressão. Por isso, graças a um ambiente político muito polarizado e a pontos polêmicos, não houve consenso.

continua após a publicidade

Depois disso, o tema perdeu relevância no Legislativo, mas os impactos das redes sociais na sociedade continuam intensos, desaguando em ações no STF. Crespo lembra que a Corte não escolhe o que julgar, mas, para ele, o artigo 19 não é inconstitucional. "O problema é que o Supremo parece querer mudar o regime de responsabilidade das plataformas e o está fazendo a partir do julgamento do artigo 19", diz o advogado. "Entendo que possamos rever o regime de responsabilidade das plataformas, mas não acredito que o melhor caminho seja pelo julgamento da inconstitucionalidade do artigo 19", conclui.

 

continua após a publicidade

Equilíbrio entre Poderes

É um consenso que o assunto deveria ser tratado pelo Legislativo. Mas a baixa disposição dos congressistas para lidar com o problema, motivada por ignorarem sua gravidade, por interesses pessoais ou simplesmente por privilegiarem assuntos que considerem mais importantes, empurra o imbróglio para os outros Poderes. Nesse sentido, a ação do STF pode ser necessária quando a inoperância do Congresso comprometa direitos fundamentais ou a segurança jurídica, como na proliferação descontrolada da desinformação e do discurso de ódio.

Ministros do STF entendem que os ataques à Democracia nos últimos anos, culminando no atentado com bombas contra a Corte, no último dia 13, justificam sua ação. De fato, juristas apontam que a lei seja aperfeiçoada para combater a disseminação de conteúdos que promovam terrorismo, abusos contra mulheres e menores, exploração sexual, racismo e ataques à Democracia.

Um elemento externo esquentará esse debate. O presidente eleito dos EUA, Donald Trump, anunciou o empresário Elon Musk, dono da rede social X, como líder do recém-criado Departamento de Eficiência Governamental. Entre suas funções estará desregulamentar diversos setores da economia e reestruturar agências federais.

"Se os EUA flexibilizarem suas regulações (das redes sociais), outros países podem sentir-se pressionados a adotar posições semelhantes, seja por alinhamento político ou para manter competitividade econômica", sugere Freitas. "Isso enfraqueceria iniciativas globais voltadas à criação de um ambiente digital mais seguro e responsável, potencializando os desafios relacionados à desinformação, discurso de ódio e exploração de vulnerabilidades dos usuários", afirma. Mas a advogada lembra que esse movimento pode ter um efeito contrário, com governos e organizações intensificando esforços para estabelecer normas que mitiguem os efeitos de uma desregulamentação excessiva.

Qualquer que seja o desfecho desse movimento do STF, ela já tem um mérito: reacender o debate em torno desse tema crítico para a sociedade. Enquanto o Legislativo não fizer a sua parte, as big techs continuarão monopolizando o assunto e se beneficiando de premissas às quais não têm mais direito. A polarização, o ódio e outros males de nosso tempo gestados e promovidos em suas páginas precisam ser contidos. Mas isso só acontecerá se essas companhias forem parte ativa da solução, assumindo responsabilidades proporcionais por suas ações e omissões.

 

A estátua da Justiça, diante do STF: ministros julgam o artigo 19 do Marco Civil da Internet - Foto: Marcelo Casal Jr./Agência Brasil

Na quarta passada, o STF (Supremo Tribunal Federal) começou um julgamento que pode impactar profundamente como usamos a Internet e como ela nos influencia. Ele se refere ao artigo 19 do Marco Civil da Internet, que estabelece que a responsabilidade sobre um conteúdo publicado nas redes sociais é de seu criador, com essas plataformas respondendo por ele apenas se não tomarem providências após uma decisão judicial.

A despeito da enorme importância do tema, é preciso questionar quem deve decidir sobre isso e por qual motivo.

Publicado no dia 23 de abril de 2014, esse mecanismo visa proteger a liberdade de expressão, impedir a censura e garantir a inovação da Internet. Ele se alinha à seção 230 da CDA (sigla em inglês para "Lei de Decência nas Comunicações"), trecho dessa lei americana de 1996 chamado de "as 26 palavras que criaram a Internet".

Esses princípios continuam valendo, mas o mundo mudou profundamente nessa década. As plataformas digitais deixaram de ser neutras no momento em que seus algoritmos passaram a ativamente promover o que gerava mais engajamento e consequentemente lucros. Ainda assim, essas empresas continuaram se beneficiando dessa proteção jurídica, mesmo quando tais conteúdos destacados levaram à extrema polarização social e à deterioração da saúde mental dos seus usuários.

Criou-se uma situação em que a sociedade padece exponencialmente com os mais diversos abusos nas plataformas digitais, com pouco ou nada sendo feito sobre isso. O Legislativo deveria então atualizar a lei, mas a letargia do Congresso Nacional no tema acaba pressionando a Justiça. E isso é ruim, porque diminui o debate democrático em torno de algo crítico para nossas vidas.

Veja esse artigo em vídeo:

Para Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propagando e Marketing), "nesse contexto, é justo que as plataformas assumam responsabilidades proporcionais pelos impactos dessas escolhas algorítmicas". Mas ele alerta que não basta simplesmente atribuir o ônus às plataformas. "Eventual regulação deve estabelecer limites claros e mecanismos de contestação para que a moderação não se transforme em censura ou inviabilize a atividade", explica.

"A responsabilidade excessiva pode levar as plataformas a adotarem uma postura conservadora, eliminando conteúdos legítimos por receio de sanções", adverte Antonielle Freitas, especialista em direito digital e proteção de dados do Viseu Advogados. "Isso pode, sim, configurar censura, prejudicando o debate público e a liberdade de expressão", acrescenta.

O Congresso já tratou do tema, com o projeto de lei 2630/2020, apelidado de "PL das Fake News", que foi enterrado na Câmara dos Deputados em maio do ano passado. Ele propunha regulamentar o combate à desinformação e ao discurso de ódio, estabelecendo transparência e responsabilização das plataformas digitais.

Ironicamente ele foi vítima de desinformação, promovida por alguns grupos sociais e pelas próprias big techs, que convenceram a população e deputados federais que a lei promoveria censura estatal e restringiria a liberdade de expressão. Por isso, graças a um ambiente político muito polarizado e a pontos polêmicos, não houve consenso.

Depois disso, o tema perdeu relevância no Legislativo, mas os impactos das redes sociais na sociedade continuam intensos, desaguando em ações no STF. Crespo lembra que a Corte não escolhe o que julgar, mas, para ele, o artigo 19 não é inconstitucional. "O problema é que o Supremo parece querer mudar o regime de responsabilidade das plataformas e o está fazendo a partir do julgamento do artigo 19", diz o advogado. "Entendo que possamos rever o regime de responsabilidade das plataformas, mas não acredito que o melhor caminho seja pelo julgamento da inconstitucionalidade do artigo 19", conclui.

 

Equilíbrio entre Poderes

É um consenso que o assunto deveria ser tratado pelo Legislativo. Mas a baixa disposição dos congressistas para lidar com o problema, motivada por ignorarem sua gravidade, por interesses pessoais ou simplesmente por privilegiarem assuntos que considerem mais importantes, empurra o imbróglio para os outros Poderes. Nesse sentido, a ação do STF pode ser necessária quando a inoperância do Congresso comprometa direitos fundamentais ou a segurança jurídica, como na proliferação descontrolada da desinformação e do discurso de ódio.

Ministros do STF entendem que os ataques à Democracia nos últimos anos, culminando no atentado com bombas contra a Corte, no último dia 13, justificam sua ação. De fato, juristas apontam que a lei seja aperfeiçoada para combater a disseminação de conteúdos que promovam terrorismo, abusos contra mulheres e menores, exploração sexual, racismo e ataques à Democracia.

Um elemento externo esquentará esse debate. O presidente eleito dos EUA, Donald Trump, anunciou o empresário Elon Musk, dono da rede social X, como líder do recém-criado Departamento de Eficiência Governamental. Entre suas funções estará desregulamentar diversos setores da economia e reestruturar agências federais.

"Se os EUA flexibilizarem suas regulações (das redes sociais), outros países podem sentir-se pressionados a adotar posições semelhantes, seja por alinhamento político ou para manter competitividade econômica", sugere Freitas. "Isso enfraqueceria iniciativas globais voltadas à criação de um ambiente digital mais seguro e responsável, potencializando os desafios relacionados à desinformação, discurso de ódio e exploração de vulnerabilidades dos usuários", afirma. Mas a advogada lembra que esse movimento pode ter um efeito contrário, com governos e organizações intensificando esforços para estabelecer normas que mitiguem os efeitos de uma desregulamentação excessiva.

Qualquer que seja o desfecho desse movimento do STF, ela já tem um mérito: reacender o debate em torno desse tema crítico para a sociedade. Enquanto o Legislativo não fizer a sua parte, as big techs continuarão monopolizando o assunto e se beneficiando de premissas às quais não têm mais direito. A polarização, o ódio e outros males de nosso tempo gestados e promovidos em suas páginas precisam ser contidos. Mas isso só acontecerá se essas companhias forem parte ativa da solução, assumindo responsabilidades proporcionais por suas ações e omissões.

 

A estátua da Justiça, diante do STF: ministros julgam o artigo 19 do Marco Civil da Internet - Foto: Marcelo Casal Jr./Agência Brasil

Na quarta passada, o STF (Supremo Tribunal Federal) começou um julgamento que pode impactar profundamente como usamos a Internet e como ela nos influencia. Ele se refere ao artigo 19 do Marco Civil da Internet, que estabelece que a responsabilidade sobre um conteúdo publicado nas redes sociais é de seu criador, com essas plataformas respondendo por ele apenas se não tomarem providências após uma decisão judicial.

A despeito da enorme importância do tema, é preciso questionar quem deve decidir sobre isso e por qual motivo.

Publicado no dia 23 de abril de 2014, esse mecanismo visa proteger a liberdade de expressão, impedir a censura e garantir a inovação da Internet. Ele se alinha à seção 230 da CDA (sigla em inglês para "Lei de Decência nas Comunicações"), trecho dessa lei americana de 1996 chamado de "as 26 palavras que criaram a Internet".

Esses princípios continuam valendo, mas o mundo mudou profundamente nessa década. As plataformas digitais deixaram de ser neutras no momento em que seus algoritmos passaram a ativamente promover o que gerava mais engajamento e consequentemente lucros. Ainda assim, essas empresas continuaram se beneficiando dessa proteção jurídica, mesmo quando tais conteúdos destacados levaram à extrema polarização social e à deterioração da saúde mental dos seus usuários.

Criou-se uma situação em que a sociedade padece exponencialmente com os mais diversos abusos nas plataformas digitais, com pouco ou nada sendo feito sobre isso. O Legislativo deveria então atualizar a lei, mas a letargia do Congresso Nacional no tema acaba pressionando a Justiça. E isso é ruim, porque diminui o debate democrático em torno de algo crítico para nossas vidas.

Veja esse artigo em vídeo:

Para Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propagando e Marketing), "nesse contexto, é justo que as plataformas assumam responsabilidades proporcionais pelos impactos dessas escolhas algorítmicas". Mas ele alerta que não basta simplesmente atribuir o ônus às plataformas. "Eventual regulação deve estabelecer limites claros e mecanismos de contestação para que a moderação não se transforme em censura ou inviabilize a atividade", explica.

"A responsabilidade excessiva pode levar as plataformas a adotarem uma postura conservadora, eliminando conteúdos legítimos por receio de sanções", adverte Antonielle Freitas, especialista em direito digital e proteção de dados do Viseu Advogados. "Isso pode, sim, configurar censura, prejudicando o debate público e a liberdade de expressão", acrescenta.

O Congresso já tratou do tema, com o projeto de lei 2630/2020, apelidado de "PL das Fake News", que foi enterrado na Câmara dos Deputados em maio do ano passado. Ele propunha regulamentar o combate à desinformação e ao discurso de ódio, estabelecendo transparência e responsabilização das plataformas digitais.

Ironicamente ele foi vítima de desinformação, promovida por alguns grupos sociais e pelas próprias big techs, que convenceram a população e deputados federais que a lei promoveria censura estatal e restringiria a liberdade de expressão. Por isso, graças a um ambiente político muito polarizado e a pontos polêmicos, não houve consenso.

Depois disso, o tema perdeu relevância no Legislativo, mas os impactos das redes sociais na sociedade continuam intensos, desaguando em ações no STF. Crespo lembra que a Corte não escolhe o que julgar, mas, para ele, o artigo 19 não é inconstitucional. "O problema é que o Supremo parece querer mudar o regime de responsabilidade das plataformas e o está fazendo a partir do julgamento do artigo 19", diz o advogado. "Entendo que possamos rever o regime de responsabilidade das plataformas, mas não acredito que o melhor caminho seja pelo julgamento da inconstitucionalidade do artigo 19", conclui.

 

Equilíbrio entre Poderes

É um consenso que o assunto deveria ser tratado pelo Legislativo. Mas a baixa disposição dos congressistas para lidar com o problema, motivada por ignorarem sua gravidade, por interesses pessoais ou simplesmente por privilegiarem assuntos que considerem mais importantes, empurra o imbróglio para os outros Poderes. Nesse sentido, a ação do STF pode ser necessária quando a inoperância do Congresso comprometa direitos fundamentais ou a segurança jurídica, como na proliferação descontrolada da desinformação e do discurso de ódio.

Ministros do STF entendem que os ataques à Democracia nos últimos anos, culminando no atentado com bombas contra a Corte, no último dia 13, justificam sua ação. De fato, juristas apontam que a lei seja aperfeiçoada para combater a disseminação de conteúdos que promovam terrorismo, abusos contra mulheres e menores, exploração sexual, racismo e ataques à Democracia.

Um elemento externo esquentará esse debate. O presidente eleito dos EUA, Donald Trump, anunciou o empresário Elon Musk, dono da rede social X, como líder do recém-criado Departamento de Eficiência Governamental. Entre suas funções estará desregulamentar diversos setores da economia e reestruturar agências federais.

"Se os EUA flexibilizarem suas regulações (das redes sociais), outros países podem sentir-se pressionados a adotar posições semelhantes, seja por alinhamento político ou para manter competitividade econômica", sugere Freitas. "Isso enfraqueceria iniciativas globais voltadas à criação de um ambiente digital mais seguro e responsável, potencializando os desafios relacionados à desinformação, discurso de ódio e exploração de vulnerabilidades dos usuários", afirma. Mas a advogada lembra que esse movimento pode ter um efeito contrário, com governos e organizações intensificando esforços para estabelecer normas que mitiguem os efeitos de uma desregulamentação excessiva.

Qualquer que seja o desfecho desse movimento do STF, ela já tem um mérito: reacender o debate em torno desse tema crítico para a sociedade. Enquanto o Legislativo não fizer a sua parte, as big techs continuarão monopolizando o assunto e se beneficiando de premissas às quais não têm mais direito. A polarização, o ódio e outros males de nosso tempo gestados e promovidos em suas páginas precisam ser contidos. Mas isso só acontecerá se essas companhias forem parte ativa da solução, assumindo responsabilidades proporcionais por suas ações e omissões.

 

A estátua da Justiça, diante do STF: ministros julgam o artigo 19 do Marco Civil da Internet - Foto: Marcelo Casal Jr./Agência Brasil

Na quarta passada, o STF (Supremo Tribunal Federal) começou um julgamento que pode impactar profundamente como usamos a Internet e como ela nos influencia. Ele se refere ao artigo 19 do Marco Civil da Internet, que estabelece que a responsabilidade sobre um conteúdo publicado nas redes sociais é de seu criador, com essas plataformas respondendo por ele apenas se não tomarem providências após uma decisão judicial.

A despeito da enorme importância do tema, é preciso questionar quem deve decidir sobre isso e por qual motivo.

Publicado no dia 23 de abril de 2014, esse mecanismo visa proteger a liberdade de expressão, impedir a censura e garantir a inovação da Internet. Ele se alinha à seção 230 da CDA (sigla em inglês para "Lei de Decência nas Comunicações"), trecho dessa lei americana de 1996 chamado de "as 26 palavras que criaram a Internet".

Esses princípios continuam valendo, mas o mundo mudou profundamente nessa década. As plataformas digitais deixaram de ser neutras no momento em que seus algoritmos passaram a ativamente promover o que gerava mais engajamento e consequentemente lucros. Ainda assim, essas empresas continuaram se beneficiando dessa proteção jurídica, mesmo quando tais conteúdos destacados levaram à extrema polarização social e à deterioração da saúde mental dos seus usuários.

Criou-se uma situação em que a sociedade padece exponencialmente com os mais diversos abusos nas plataformas digitais, com pouco ou nada sendo feito sobre isso. O Legislativo deveria então atualizar a lei, mas a letargia do Congresso Nacional no tema acaba pressionando a Justiça. E isso é ruim, porque diminui o debate democrático em torno de algo crítico para nossas vidas.

Veja esse artigo em vídeo:

Para Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propagando e Marketing), "nesse contexto, é justo que as plataformas assumam responsabilidades proporcionais pelos impactos dessas escolhas algorítmicas". Mas ele alerta que não basta simplesmente atribuir o ônus às plataformas. "Eventual regulação deve estabelecer limites claros e mecanismos de contestação para que a moderação não se transforme em censura ou inviabilize a atividade", explica.

"A responsabilidade excessiva pode levar as plataformas a adotarem uma postura conservadora, eliminando conteúdos legítimos por receio de sanções", adverte Antonielle Freitas, especialista em direito digital e proteção de dados do Viseu Advogados. "Isso pode, sim, configurar censura, prejudicando o debate público e a liberdade de expressão", acrescenta.

O Congresso já tratou do tema, com o projeto de lei 2630/2020, apelidado de "PL das Fake News", que foi enterrado na Câmara dos Deputados em maio do ano passado. Ele propunha regulamentar o combate à desinformação e ao discurso de ódio, estabelecendo transparência e responsabilização das plataformas digitais.

Ironicamente ele foi vítima de desinformação, promovida por alguns grupos sociais e pelas próprias big techs, que convenceram a população e deputados federais que a lei promoveria censura estatal e restringiria a liberdade de expressão. Por isso, graças a um ambiente político muito polarizado e a pontos polêmicos, não houve consenso.

Depois disso, o tema perdeu relevância no Legislativo, mas os impactos das redes sociais na sociedade continuam intensos, desaguando em ações no STF. Crespo lembra que a Corte não escolhe o que julgar, mas, para ele, o artigo 19 não é inconstitucional. "O problema é que o Supremo parece querer mudar o regime de responsabilidade das plataformas e o está fazendo a partir do julgamento do artigo 19", diz o advogado. "Entendo que possamos rever o regime de responsabilidade das plataformas, mas não acredito que o melhor caminho seja pelo julgamento da inconstitucionalidade do artigo 19", conclui.

 

Equilíbrio entre Poderes

É um consenso que o assunto deveria ser tratado pelo Legislativo. Mas a baixa disposição dos congressistas para lidar com o problema, motivada por ignorarem sua gravidade, por interesses pessoais ou simplesmente por privilegiarem assuntos que considerem mais importantes, empurra o imbróglio para os outros Poderes. Nesse sentido, a ação do STF pode ser necessária quando a inoperância do Congresso comprometa direitos fundamentais ou a segurança jurídica, como na proliferação descontrolada da desinformação e do discurso de ódio.

Ministros do STF entendem que os ataques à Democracia nos últimos anos, culminando no atentado com bombas contra a Corte, no último dia 13, justificam sua ação. De fato, juristas apontam que a lei seja aperfeiçoada para combater a disseminação de conteúdos que promovam terrorismo, abusos contra mulheres e menores, exploração sexual, racismo e ataques à Democracia.

Um elemento externo esquentará esse debate. O presidente eleito dos EUA, Donald Trump, anunciou o empresário Elon Musk, dono da rede social X, como líder do recém-criado Departamento de Eficiência Governamental. Entre suas funções estará desregulamentar diversos setores da economia e reestruturar agências federais.

"Se os EUA flexibilizarem suas regulações (das redes sociais), outros países podem sentir-se pressionados a adotar posições semelhantes, seja por alinhamento político ou para manter competitividade econômica", sugere Freitas. "Isso enfraqueceria iniciativas globais voltadas à criação de um ambiente digital mais seguro e responsável, potencializando os desafios relacionados à desinformação, discurso de ódio e exploração de vulnerabilidades dos usuários", afirma. Mas a advogada lembra que esse movimento pode ter um efeito contrário, com governos e organizações intensificando esforços para estabelecer normas que mitiguem os efeitos de uma desregulamentação excessiva.

Qualquer que seja o desfecho desse movimento do STF, ela já tem um mérito: reacender o debate em torno desse tema crítico para a sociedade. Enquanto o Legislativo não fizer a sua parte, as big techs continuarão monopolizando o assunto e se beneficiando de premissas às quais não têm mais direito. A polarização, o ódio e outros males de nosso tempo gestados e promovidos em suas páginas precisam ser contidos. Mas isso só acontecerá se essas companhias forem parte ativa da solução, assumindo responsabilidades proporcionais por suas ações e omissões.

 

A estátua da Justiça, diante do STF: ministros julgam o artigo 19 do Marco Civil da Internet - Foto: Marcelo Casal Jr./Agência Brasil

Na quarta passada, o STF (Supremo Tribunal Federal) começou um julgamento que pode impactar profundamente como usamos a Internet e como ela nos influencia. Ele se refere ao artigo 19 do Marco Civil da Internet, que estabelece que a responsabilidade sobre um conteúdo publicado nas redes sociais é de seu criador, com essas plataformas respondendo por ele apenas se não tomarem providências após uma decisão judicial.

A despeito da enorme importância do tema, é preciso questionar quem deve decidir sobre isso e por qual motivo.

Publicado no dia 23 de abril de 2014, esse mecanismo visa proteger a liberdade de expressão, impedir a censura e garantir a inovação da Internet. Ele se alinha à seção 230 da CDA (sigla em inglês para "Lei de Decência nas Comunicações"), trecho dessa lei americana de 1996 chamado de "as 26 palavras que criaram a Internet".

Esses princípios continuam valendo, mas o mundo mudou profundamente nessa década. As plataformas digitais deixaram de ser neutras no momento em que seus algoritmos passaram a ativamente promover o que gerava mais engajamento e consequentemente lucros. Ainda assim, essas empresas continuaram se beneficiando dessa proteção jurídica, mesmo quando tais conteúdos destacados levaram à extrema polarização social e à deterioração da saúde mental dos seus usuários.

Criou-se uma situação em que a sociedade padece exponencialmente com os mais diversos abusos nas plataformas digitais, com pouco ou nada sendo feito sobre isso. O Legislativo deveria então atualizar a lei, mas a letargia do Congresso Nacional no tema acaba pressionando a Justiça. E isso é ruim, porque diminui o debate democrático em torno de algo crítico para nossas vidas.

Veja esse artigo em vídeo:

Para Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propagando e Marketing), "nesse contexto, é justo que as plataformas assumam responsabilidades proporcionais pelos impactos dessas escolhas algorítmicas". Mas ele alerta que não basta simplesmente atribuir o ônus às plataformas. "Eventual regulação deve estabelecer limites claros e mecanismos de contestação para que a moderação não se transforme em censura ou inviabilize a atividade", explica.

"A responsabilidade excessiva pode levar as plataformas a adotarem uma postura conservadora, eliminando conteúdos legítimos por receio de sanções", adverte Antonielle Freitas, especialista em direito digital e proteção de dados do Viseu Advogados. "Isso pode, sim, configurar censura, prejudicando o debate público e a liberdade de expressão", acrescenta.

O Congresso já tratou do tema, com o projeto de lei 2630/2020, apelidado de "PL das Fake News", que foi enterrado na Câmara dos Deputados em maio do ano passado. Ele propunha regulamentar o combate à desinformação e ao discurso de ódio, estabelecendo transparência e responsabilização das plataformas digitais.

Ironicamente ele foi vítima de desinformação, promovida por alguns grupos sociais e pelas próprias big techs, que convenceram a população e deputados federais que a lei promoveria censura estatal e restringiria a liberdade de expressão. Por isso, graças a um ambiente político muito polarizado e a pontos polêmicos, não houve consenso.

Depois disso, o tema perdeu relevância no Legislativo, mas os impactos das redes sociais na sociedade continuam intensos, desaguando em ações no STF. Crespo lembra que a Corte não escolhe o que julgar, mas, para ele, o artigo 19 não é inconstitucional. "O problema é que o Supremo parece querer mudar o regime de responsabilidade das plataformas e o está fazendo a partir do julgamento do artigo 19", diz o advogado. "Entendo que possamos rever o regime de responsabilidade das plataformas, mas não acredito que o melhor caminho seja pelo julgamento da inconstitucionalidade do artigo 19", conclui.

 

Equilíbrio entre Poderes

É um consenso que o assunto deveria ser tratado pelo Legislativo. Mas a baixa disposição dos congressistas para lidar com o problema, motivada por ignorarem sua gravidade, por interesses pessoais ou simplesmente por privilegiarem assuntos que considerem mais importantes, empurra o imbróglio para os outros Poderes. Nesse sentido, a ação do STF pode ser necessária quando a inoperância do Congresso comprometa direitos fundamentais ou a segurança jurídica, como na proliferação descontrolada da desinformação e do discurso de ódio.

Ministros do STF entendem que os ataques à Democracia nos últimos anos, culminando no atentado com bombas contra a Corte, no último dia 13, justificam sua ação. De fato, juristas apontam que a lei seja aperfeiçoada para combater a disseminação de conteúdos que promovam terrorismo, abusos contra mulheres e menores, exploração sexual, racismo e ataques à Democracia.

Um elemento externo esquentará esse debate. O presidente eleito dos EUA, Donald Trump, anunciou o empresário Elon Musk, dono da rede social X, como líder do recém-criado Departamento de Eficiência Governamental. Entre suas funções estará desregulamentar diversos setores da economia e reestruturar agências federais.

"Se os EUA flexibilizarem suas regulações (das redes sociais), outros países podem sentir-se pressionados a adotar posições semelhantes, seja por alinhamento político ou para manter competitividade econômica", sugere Freitas. "Isso enfraqueceria iniciativas globais voltadas à criação de um ambiente digital mais seguro e responsável, potencializando os desafios relacionados à desinformação, discurso de ódio e exploração de vulnerabilidades dos usuários", afirma. Mas a advogada lembra que esse movimento pode ter um efeito contrário, com governos e organizações intensificando esforços para estabelecer normas que mitiguem os efeitos de uma desregulamentação excessiva.

Qualquer que seja o desfecho desse movimento do STF, ela já tem um mérito: reacender o debate em torno desse tema crítico para a sociedade. Enquanto o Legislativo não fizer a sua parte, as big techs continuarão monopolizando o assunto e se beneficiando de premissas às quais não têm mais direito. A polarização, o ódio e outros males de nosso tempo gestados e promovidos em suas páginas precisam ser contidos. Mas isso só acontecerá se essas companhias forem parte ativa da solução, assumindo responsabilidades proporcionais por suas ações e omissões.

 

Opinião por Paulo Silvestre

É jornalista, consultor e palestrante de customer experience, mídia, cultura e transformação digital. É professor da Universidade Mackenzie e da PUC–SP, e articulista do Estadão. Foi executivo na AOL, Editora Abril, Estadão, Saraiva e Samsung. Mestre em Tecnologias da Inteligência e Design Digital pela PUC-SP, é LinkedIn Top Voice desde 2016.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.