Saiba quais são as brechas na lei sobre redes sociais e por que é difícil regular o ambiente digital


Elon Musk acusou Alexandre de Moraes de trair a Constituição do Brasil por demandas da Justiça ao antigo Twitter; ministro do STF reagiu multando o X e incluindo o bilionário no inquérito das fake news

Por Karina Ferreira

Os recentes embates entre o bilionário Elon Musk, dono do X (antigo Twitter), e o ministro do Supremo Tribunal Federal (STF) Alexandre de Moraes reacenderam a discussão sobre a internet ser ou não uma “terra sem lei” no Brasil. De um lado, o empresário criticou a restrição de perfis no X e chegou a dizer que não cumpriria decisões judiciais. Em reação, Moraes incluiu Musk no inquérito das milícias digitais, afirmando que “as redes sociais não são terra de ninguém”. Especialistas ouvidos pelo Estadão apontam fragilidades no ordenamento jurídico brasileiro que abrem brechas para esse tipo de impasse entre big techs e o Poder Judiciário.

Jonas Valente, integrante da organização Direito à Comunicação e Democracia e da Coalizão Direitos na Rede, elenca pelo menos seis brechas nas regulamentações existentes. São elas:

  1. Falta de obrigações às redes sociais tanto de combate a riscos sistêmicos quanto medidas emergenciais em situações de graves riscos;
  2. Falta de obrigações de transparência para que autoridades possam acompanhar o que elas fazem ou não fazem e tomar providências;
  3. Falta de garantias de liberdade de expressão e devido processo aos usuários;
  4. Falta de um modelo de instituições regulatórias participativo;
  5. Responsabilização das redes sociais em casos objetivos (como quando elas recebem dinheiro por conteúdos que geram danos a terceiros, por exemplo);
  6. Sanções claras para guiar o Judiciário em suas decisões.
continua após a publicidade

Jonas afirma que já há leis que regulam o ambiente digital, como o Marco Civil da Internet, a Lei Geral de Proteção de Dados, entre outras disposições, mas é importante pontuar que há um vácuo sobre tipos de obrigações ainda não previstos em lei, e isso tem aberto espaço para a atuação do Judiciário.

Elon Musk e Alexandre de Moraes Foto: Gonzalo Fuentes/Reuters e Pedro Kirilos/Estadão

Em questões que versam sobre quais conteúdos devem ser retirados do ar, por exemplo, a maioria das plataformas segue seus próprios parâmetros e políticas. Segundo Caio Vieira Machado, pesquisador em Harvard e diretor-executivo do Instituto Vero, não há uma lei que regulamente de forma clara as bases legais para moderação de conteúdo e suspensão de contas, somente jurisprudência para casos em que crimes já foram cometidos.

continua após a publicidade

“Quando a gente fala de um crime é bem fácil, porque a Justiça pode emitir uma ordem para que aquela prática seja prevenida ou para a proteção de direitos. Já a moderação de conteúdo passa por o que é flagrantemente ilegal e por coisas mais cinzentas, em que a gente não tem uma certeza clara naquele momento”, afirma.

Legislação atual

A legislação atual sobre a regulação do uso da internet no País, em vigor desde 2014, prevê que as plataformas digitais não podem ser responsabilizadas por conteúdos de terceiros. O artigo 19 do Marco Civil da Internet entende que elas servem para conectar diferentes pessoas, que têm a possibilidade de compartilhar conteúdo de forma livre.

continua após a publicidade

A única exceção, comenta João Victor Archegas, coordenador do grupo de pesquisa em constitucionalismo digital e moderação de conteúdo ModeraLab e pesquisador sênior do ITS Rio, é quando existe alguma decisão judicial que entende que aquele conteúdo é ilegal, ou seja, que causa um dano a outra pessoa, e aí se determina judicialmente pela exclusão do conteúdo. “A partir daquele momento, se a plataforma não o remover, ela passa a ser responsável por eventuais danos causados pelo conteúdo”, afirma.

Para ele, a discussão sobre o Projeto de Lei 2630/2020, popularmente conhecido como PL das Fake News, atualiza o ordenamento jurídico em questões que ainda não eram relevantes em 2014, quando o Marco Regulatório foi promulgado – como práticas de deep fake, por exemplo – e estabelece três eixos: responsabilização, transparência e fiscalização.

O projeto tramita pelo Congresso desde 2020. Iniciativa do senador Alessandro Vieira (MDB-SE), a proposta foi aprovada em menos de dois meses no Senado, mas desde 2021 segue na Câmara, atualmente sem previsão de votação. Mesmo após o embate entre Musk e Moraes neste final de semana, líderes partidários da Câmara, tanto do Centrão, quanto da esquerda, veem poucas chances de o projeto de lei das fake news ser votado no curto prazo.

continua após a publicidade

Para Archegas, no entanto, mesmo se o PL das Fake News já estivesse valendo como lei, não impediria que o embate protagonizado por Musk e Moraes ocorresse. “Isso não muda a natureza do problema que é uma relação entre Estado e plataformas digitais. Essas big techs estão se desprendendo da órbita gravitacional do Estado. Os instrumentos regulatórios clássicos que o Estado tem à sua disposição, como responsabilização, imposição de deveres, fiscalização, entre outros, já não dão mais conta do problema porque essas plataformas atuam no plano transnacional e muitas vezes entram em conflito com o Estado, inclusive desafiando essas decisões.”

Dificuldade de regulamentar

Para o especialista em Direito Digital e coordenador do curso de Direito da ESPM, Marcelo Crespo, a principal dificuldade de melhor regulamentar o ambiente digital no Brasil, atualmente, é o lobby dessas grandes plataformas.

continua após a publicidade

“Também não acho que a alteração deva ser de qualquer jeito, e simplesmente responsabilizar as empresas a qualquer custo. Mas, sem dúvida nenhuma, eu acredito que esse modelo estabelecido pelo Marco Civil em 2014 está datado e precisa ser atualizado”.

Outro ponto é o frequente argumento de que a regulamentação se choca com a liberdade de expressão, o que dá ares polêmicos para a discussão e é refutado pelos especialistas. “A liberdade de expressão no Brasil não é um conceito individual, mas sim jurídico. Eu não posso ser racista, eu não posso ser preconceituoso, caluniar, difamar, apresentar acusações sem ter provas, tanto no ambiente virtual como fora dele”, comenta o professor.

No embate entre Musk e Moraes, Caio Machado afirma que, de um lado, o ministro tem tentado conter ameaças à democracia, mas com ausência de uma base legal clara para isso, enquanto do outro, o bilionário contesta essas medidas e capitaliza a agenda política.

continua após a publicidade

“A pergunta que tem que estar presente nesse debate é se Musk deveria ter o direito de tratar a plataforma como o quintal da casa dele, porque a plataforma é uma empresa privada, mas com serviço de interesse público, de comunicação. O que ele tem feito, diferente das outras redes sociais, é tratar isso como um espaço estritamente dele, desbloqueando contas quando interessa, bloqueando quando interessa”, questiona o professor.

Os recentes embates entre o bilionário Elon Musk, dono do X (antigo Twitter), e o ministro do Supremo Tribunal Federal (STF) Alexandre de Moraes reacenderam a discussão sobre a internet ser ou não uma “terra sem lei” no Brasil. De um lado, o empresário criticou a restrição de perfis no X e chegou a dizer que não cumpriria decisões judiciais. Em reação, Moraes incluiu Musk no inquérito das milícias digitais, afirmando que “as redes sociais não são terra de ninguém”. Especialistas ouvidos pelo Estadão apontam fragilidades no ordenamento jurídico brasileiro que abrem brechas para esse tipo de impasse entre big techs e o Poder Judiciário.

Jonas Valente, integrante da organização Direito à Comunicação e Democracia e da Coalizão Direitos na Rede, elenca pelo menos seis brechas nas regulamentações existentes. São elas:

  1. Falta de obrigações às redes sociais tanto de combate a riscos sistêmicos quanto medidas emergenciais em situações de graves riscos;
  2. Falta de obrigações de transparência para que autoridades possam acompanhar o que elas fazem ou não fazem e tomar providências;
  3. Falta de garantias de liberdade de expressão e devido processo aos usuários;
  4. Falta de um modelo de instituições regulatórias participativo;
  5. Responsabilização das redes sociais em casos objetivos (como quando elas recebem dinheiro por conteúdos que geram danos a terceiros, por exemplo);
  6. Sanções claras para guiar o Judiciário em suas decisões.

Jonas afirma que já há leis que regulam o ambiente digital, como o Marco Civil da Internet, a Lei Geral de Proteção de Dados, entre outras disposições, mas é importante pontuar que há um vácuo sobre tipos de obrigações ainda não previstos em lei, e isso tem aberto espaço para a atuação do Judiciário.

Elon Musk e Alexandre de Moraes Foto: Gonzalo Fuentes/Reuters e Pedro Kirilos/Estadão

Em questões que versam sobre quais conteúdos devem ser retirados do ar, por exemplo, a maioria das plataformas segue seus próprios parâmetros e políticas. Segundo Caio Vieira Machado, pesquisador em Harvard e diretor-executivo do Instituto Vero, não há uma lei que regulamente de forma clara as bases legais para moderação de conteúdo e suspensão de contas, somente jurisprudência para casos em que crimes já foram cometidos.

“Quando a gente fala de um crime é bem fácil, porque a Justiça pode emitir uma ordem para que aquela prática seja prevenida ou para a proteção de direitos. Já a moderação de conteúdo passa por o que é flagrantemente ilegal e por coisas mais cinzentas, em que a gente não tem uma certeza clara naquele momento”, afirma.

Legislação atual

A legislação atual sobre a regulação do uso da internet no País, em vigor desde 2014, prevê que as plataformas digitais não podem ser responsabilizadas por conteúdos de terceiros. O artigo 19 do Marco Civil da Internet entende que elas servem para conectar diferentes pessoas, que têm a possibilidade de compartilhar conteúdo de forma livre.

A única exceção, comenta João Victor Archegas, coordenador do grupo de pesquisa em constitucionalismo digital e moderação de conteúdo ModeraLab e pesquisador sênior do ITS Rio, é quando existe alguma decisão judicial que entende que aquele conteúdo é ilegal, ou seja, que causa um dano a outra pessoa, e aí se determina judicialmente pela exclusão do conteúdo. “A partir daquele momento, se a plataforma não o remover, ela passa a ser responsável por eventuais danos causados pelo conteúdo”, afirma.

Para ele, a discussão sobre o Projeto de Lei 2630/2020, popularmente conhecido como PL das Fake News, atualiza o ordenamento jurídico em questões que ainda não eram relevantes em 2014, quando o Marco Regulatório foi promulgado – como práticas de deep fake, por exemplo – e estabelece três eixos: responsabilização, transparência e fiscalização.

O projeto tramita pelo Congresso desde 2020. Iniciativa do senador Alessandro Vieira (MDB-SE), a proposta foi aprovada em menos de dois meses no Senado, mas desde 2021 segue na Câmara, atualmente sem previsão de votação. Mesmo após o embate entre Musk e Moraes neste final de semana, líderes partidários da Câmara, tanto do Centrão, quanto da esquerda, veem poucas chances de o projeto de lei das fake news ser votado no curto prazo.

Para Archegas, no entanto, mesmo se o PL das Fake News já estivesse valendo como lei, não impediria que o embate protagonizado por Musk e Moraes ocorresse. “Isso não muda a natureza do problema que é uma relação entre Estado e plataformas digitais. Essas big techs estão se desprendendo da órbita gravitacional do Estado. Os instrumentos regulatórios clássicos que o Estado tem à sua disposição, como responsabilização, imposição de deveres, fiscalização, entre outros, já não dão mais conta do problema porque essas plataformas atuam no plano transnacional e muitas vezes entram em conflito com o Estado, inclusive desafiando essas decisões.”

Dificuldade de regulamentar

Para o especialista em Direito Digital e coordenador do curso de Direito da ESPM, Marcelo Crespo, a principal dificuldade de melhor regulamentar o ambiente digital no Brasil, atualmente, é o lobby dessas grandes plataformas.

“Também não acho que a alteração deva ser de qualquer jeito, e simplesmente responsabilizar as empresas a qualquer custo. Mas, sem dúvida nenhuma, eu acredito que esse modelo estabelecido pelo Marco Civil em 2014 está datado e precisa ser atualizado”.

Outro ponto é o frequente argumento de que a regulamentação se choca com a liberdade de expressão, o que dá ares polêmicos para a discussão e é refutado pelos especialistas. “A liberdade de expressão no Brasil não é um conceito individual, mas sim jurídico. Eu não posso ser racista, eu não posso ser preconceituoso, caluniar, difamar, apresentar acusações sem ter provas, tanto no ambiente virtual como fora dele”, comenta o professor.

No embate entre Musk e Moraes, Caio Machado afirma que, de um lado, o ministro tem tentado conter ameaças à democracia, mas com ausência de uma base legal clara para isso, enquanto do outro, o bilionário contesta essas medidas e capitaliza a agenda política.

“A pergunta que tem que estar presente nesse debate é se Musk deveria ter o direito de tratar a plataforma como o quintal da casa dele, porque a plataforma é uma empresa privada, mas com serviço de interesse público, de comunicação. O que ele tem feito, diferente das outras redes sociais, é tratar isso como um espaço estritamente dele, desbloqueando contas quando interessa, bloqueando quando interessa”, questiona o professor.

Os recentes embates entre o bilionário Elon Musk, dono do X (antigo Twitter), e o ministro do Supremo Tribunal Federal (STF) Alexandre de Moraes reacenderam a discussão sobre a internet ser ou não uma “terra sem lei” no Brasil. De um lado, o empresário criticou a restrição de perfis no X e chegou a dizer que não cumpriria decisões judiciais. Em reação, Moraes incluiu Musk no inquérito das milícias digitais, afirmando que “as redes sociais não são terra de ninguém”. Especialistas ouvidos pelo Estadão apontam fragilidades no ordenamento jurídico brasileiro que abrem brechas para esse tipo de impasse entre big techs e o Poder Judiciário.

Jonas Valente, integrante da organização Direito à Comunicação e Democracia e da Coalizão Direitos na Rede, elenca pelo menos seis brechas nas regulamentações existentes. São elas:

  1. Falta de obrigações às redes sociais tanto de combate a riscos sistêmicos quanto medidas emergenciais em situações de graves riscos;
  2. Falta de obrigações de transparência para que autoridades possam acompanhar o que elas fazem ou não fazem e tomar providências;
  3. Falta de garantias de liberdade de expressão e devido processo aos usuários;
  4. Falta de um modelo de instituições regulatórias participativo;
  5. Responsabilização das redes sociais em casos objetivos (como quando elas recebem dinheiro por conteúdos que geram danos a terceiros, por exemplo);
  6. Sanções claras para guiar o Judiciário em suas decisões.

Jonas afirma que já há leis que regulam o ambiente digital, como o Marco Civil da Internet, a Lei Geral de Proteção de Dados, entre outras disposições, mas é importante pontuar que há um vácuo sobre tipos de obrigações ainda não previstos em lei, e isso tem aberto espaço para a atuação do Judiciário.

Elon Musk e Alexandre de Moraes Foto: Gonzalo Fuentes/Reuters e Pedro Kirilos/Estadão

Em questões que versam sobre quais conteúdos devem ser retirados do ar, por exemplo, a maioria das plataformas segue seus próprios parâmetros e políticas. Segundo Caio Vieira Machado, pesquisador em Harvard e diretor-executivo do Instituto Vero, não há uma lei que regulamente de forma clara as bases legais para moderação de conteúdo e suspensão de contas, somente jurisprudência para casos em que crimes já foram cometidos.

“Quando a gente fala de um crime é bem fácil, porque a Justiça pode emitir uma ordem para que aquela prática seja prevenida ou para a proteção de direitos. Já a moderação de conteúdo passa por o que é flagrantemente ilegal e por coisas mais cinzentas, em que a gente não tem uma certeza clara naquele momento”, afirma.

Legislação atual

A legislação atual sobre a regulação do uso da internet no País, em vigor desde 2014, prevê que as plataformas digitais não podem ser responsabilizadas por conteúdos de terceiros. O artigo 19 do Marco Civil da Internet entende que elas servem para conectar diferentes pessoas, que têm a possibilidade de compartilhar conteúdo de forma livre.

A única exceção, comenta João Victor Archegas, coordenador do grupo de pesquisa em constitucionalismo digital e moderação de conteúdo ModeraLab e pesquisador sênior do ITS Rio, é quando existe alguma decisão judicial que entende que aquele conteúdo é ilegal, ou seja, que causa um dano a outra pessoa, e aí se determina judicialmente pela exclusão do conteúdo. “A partir daquele momento, se a plataforma não o remover, ela passa a ser responsável por eventuais danos causados pelo conteúdo”, afirma.

Para ele, a discussão sobre o Projeto de Lei 2630/2020, popularmente conhecido como PL das Fake News, atualiza o ordenamento jurídico em questões que ainda não eram relevantes em 2014, quando o Marco Regulatório foi promulgado – como práticas de deep fake, por exemplo – e estabelece três eixos: responsabilização, transparência e fiscalização.

O projeto tramita pelo Congresso desde 2020. Iniciativa do senador Alessandro Vieira (MDB-SE), a proposta foi aprovada em menos de dois meses no Senado, mas desde 2021 segue na Câmara, atualmente sem previsão de votação. Mesmo após o embate entre Musk e Moraes neste final de semana, líderes partidários da Câmara, tanto do Centrão, quanto da esquerda, veem poucas chances de o projeto de lei das fake news ser votado no curto prazo.

Para Archegas, no entanto, mesmo se o PL das Fake News já estivesse valendo como lei, não impediria que o embate protagonizado por Musk e Moraes ocorresse. “Isso não muda a natureza do problema que é uma relação entre Estado e plataformas digitais. Essas big techs estão se desprendendo da órbita gravitacional do Estado. Os instrumentos regulatórios clássicos que o Estado tem à sua disposição, como responsabilização, imposição de deveres, fiscalização, entre outros, já não dão mais conta do problema porque essas plataformas atuam no plano transnacional e muitas vezes entram em conflito com o Estado, inclusive desafiando essas decisões.”

Dificuldade de regulamentar

Para o especialista em Direito Digital e coordenador do curso de Direito da ESPM, Marcelo Crespo, a principal dificuldade de melhor regulamentar o ambiente digital no Brasil, atualmente, é o lobby dessas grandes plataformas.

“Também não acho que a alteração deva ser de qualquer jeito, e simplesmente responsabilizar as empresas a qualquer custo. Mas, sem dúvida nenhuma, eu acredito que esse modelo estabelecido pelo Marco Civil em 2014 está datado e precisa ser atualizado”.

Outro ponto é o frequente argumento de que a regulamentação se choca com a liberdade de expressão, o que dá ares polêmicos para a discussão e é refutado pelos especialistas. “A liberdade de expressão no Brasil não é um conceito individual, mas sim jurídico. Eu não posso ser racista, eu não posso ser preconceituoso, caluniar, difamar, apresentar acusações sem ter provas, tanto no ambiente virtual como fora dele”, comenta o professor.

No embate entre Musk e Moraes, Caio Machado afirma que, de um lado, o ministro tem tentado conter ameaças à democracia, mas com ausência de uma base legal clara para isso, enquanto do outro, o bilionário contesta essas medidas e capitaliza a agenda política.

“A pergunta que tem que estar presente nesse debate é se Musk deveria ter o direito de tratar a plataforma como o quintal da casa dele, porque a plataforma é uma empresa privada, mas com serviço de interesse público, de comunicação. O que ele tem feito, diferente das outras redes sociais, é tratar isso como um espaço estritamente dele, desbloqueando contas quando interessa, bloqueando quando interessa”, questiona o professor.

Os recentes embates entre o bilionário Elon Musk, dono do X (antigo Twitter), e o ministro do Supremo Tribunal Federal (STF) Alexandre de Moraes reacenderam a discussão sobre a internet ser ou não uma “terra sem lei” no Brasil. De um lado, o empresário criticou a restrição de perfis no X e chegou a dizer que não cumpriria decisões judiciais. Em reação, Moraes incluiu Musk no inquérito das milícias digitais, afirmando que “as redes sociais não são terra de ninguém”. Especialistas ouvidos pelo Estadão apontam fragilidades no ordenamento jurídico brasileiro que abrem brechas para esse tipo de impasse entre big techs e o Poder Judiciário.

Jonas Valente, integrante da organização Direito à Comunicação e Democracia e da Coalizão Direitos na Rede, elenca pelo menos seis brechas nas regulamentações existentes. São elas:

  1. Falta de obrigações às redes sociais tanto de combate a riscos sistêmicos quanto medidas emergenciais em situações de graves riscos;
  2. Falta de obrigações de transparência para que autoridades possam acompanhar o que elas fazem ou não fazem e tomar providências;
  3. Falta de garantias de liberdade de expressão e devido processo aos usuários;
  4. Falta de um modelo de instituições regulatórias participativo;
  5. Responsabilização das redes sociais em casos objetivos (como quando elas recebem dinheiro por conteúdos que geram danos a terceiros, por exemplo);
  6. Sanções claras para guiar o Judiciário em suas decisões.

Jonas afirma que já há leis que regulam o ambiente digital, como o Marco Civil da Internet, a Lei Geral de Proteção de Dados, entre outras disposições, mas é importante pontuar que há um vácuo sobre tipos de obrigações ainda não previstos em lei, e isso tem aberto espaço para a atuação do Judiciário.

Elon Musk e Alexandre de Moraes Foto: Gonzalo Fuentes/Reuters e Pedro Kirilos/Estadão

Em questões que versam sobre quais conteúdos devem ser retirados do ar, por exemplo, a maioria das plataformas segue seus próprios parâmetros e políticas. Segundo Caio Vieira Machado, pesquisador em Harvard e diretor-executivo do Instituto Vero, não há uma lei que regulamente de forma clara as bases legais para moderação de conteúdo e suspensão de contas, somente jurisprudência para casos em que crimes já foram cometidos.

“Quando a gente fala de um crime é bem fácil, porque a Justiça pode emitir uma ordem para que aquela prática seja prevenida ou para a proteção de direitos. Já a moderação de conteúdo passa por o que é flagrantemente ilegal e por coisas mais cinzentas, em que a gente não tem uma certeza clara naquele momento”, afirma.

Legislação atual

A legislação atual sobre a regulação do uso da internet no País, em vigor desde 2014, prevê que as plataformas digitais não podem ser responsabilizadas por conteúdos de terceiros. O artigo 19 do Marco Civil da Internet entende que elas servem para conectar diferentes pessoas, que têm a possibilidade de compartilhar conteúdo de forma livre.

A única exceção, comenta João Victor Archegas, coordenador do grupo de pesquisa em constitucionalismo digital e moderação de conteúdo ModeraLab e pesquisador sênior do ITS Rio, é quando existe alguma decisão judicial que entende que aquele conteúdo é ilegal, ou seja, que causa um dano a outra pessoa, e aí se determina judicialmente pela exclusão do conteúdo. “A partir daquele momento, se a plataforma não o remover, ela passa a ser responsável por eventuais danos causados pelo conteúdo”, afirma.

Para ele, a discussão sobre o Projeto de Lei 2630/2020, popularmente conhecido como PL das Fake News, atualiza o ordenamento jurídico em questões que ainda não eram relevantes em 2014, quando o Marco Regulatório foi promulgado – como práticas de deep fake, por exemplo – e estabelece três eixos: responsabilização, transparência e fiscalização.

O projeto tramita pelo Congresso desde 2020. Iniciativa do senador Alessandro Vieira (MDB-SE), a proposta foi aprovada em menos de dois meses no Senado, mas desde 2021 segue na Câmara, atualmente sem previsão de votação. Mesmo após o embate entre Musk e Moraes neste final de semana, líderes partidários da Câmara, tanto do Centrão, quanto da esquerda, veem poucas chances de o projeto de lei das fake news ser votado no curto prazo.

Para Archegas, no entanto, mesmo se o PL das Fake News já estivesse valendo como lei, não impediria que o embate protagonizado por Musk e Moraes ocorresse. “Isso não muda a natureza do problema que é uma relação entre Estado e plataformas digitais. Essas big techs estão se desprendendo da órbita gravitacional do Estado. Os instrumentos regulatórios clássicos que o Estado tem à sua disposição, como responsabilização, imposição de deveres, fiscalização, entre outros, já não dão mais conta do problema porque essas plataformas atuam no plano transnacional e muitas vezes entram em conflito com o Estado, inclusive desafiando essas decisões.”

Dificuldade de regulamentar

Para o especialista em Direito Digital e coordenador do curso de Direito da ESPM, Marcelo Crespo, a principal dificuldade de melhor regulamentar o ambiente digital no Brasil, atualmente, é o lobby dessas grandes plataformas.

“Também não acho que a alteração deva ser de qualquer jeito, e simplesmente responsabilizar as empresas a qualquer custo. Mas, sem dúvida nenhuma, eu acredito que esse modelo estabelecido pelo Marco Civil em 2014 está datado e precisa ser atualizado”.

Outro ponto é o frequente argumento de que a regulamentação se choca com a liberdade de expressão, o que dá ares polêmicos para a discussão e é refutado pelos especialistas. “A liberdade de expressão no Brasil não é um conceito individual, mas sim jurídico. Eu não posso ser racista, eu não posso ser preconceituoso, caluniar, difamar, apresentar acusações sem ter provas, tanto no ambiente virtual como fora dele”, comenta o professor.

No embate entre Musk e Moraes, Caio Machado afirma que, de um lado, o ministro tem tentado conter ameaças à democracia, mas com ausência de uma base legal clara para isso, enquanto do outro, o bilionário contesta essas medidas e capitaliza a agenda política.

“A pergunta que tem que estar presente nesse debate é se Musk deveria ter o direito de tratar a plataforma como o quintal da casa dele, porque a plataforma é uma empresa privada, mas com serviço de interesse público, de comunicação. O que ele tem feito, diferente das outras redes sociais, é tratar isso como um espaço estritamente dele, desbloqueando contas quando interessa, bloqueando quando interessa”, questiona o professor.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.