O jogo da democracia no Brasil e no mundo

Elas já fazem, mas não dizem como


As plataformas, com seus algoritmos, já exercem papel moderador. Mas não é claro como o fazem

Por João Gabriel de Lima

As barbaridades perpetradas em escolas em Blumenau e São Paulo desencadearam um debate sobre a responsabilidade das plataformas digitais. O Ministério da Justiça emitiu, na quarta-feira passada, portaria que impede o compartilhamento de conteúdos que façam ameaças ou incentivem ataques em escolas.

O debate sobre o assunto é mundial e é balizado por duas perguntas. Primeira: as plataformas são responsáveis pelos conteúdos que publicam? Segunda: elas devem remunerar os produtores de conteúdo? São, no entanto, falsas questões. As plataformas, com seus algoritmos, já exercem papel moderador. E, igualmente, já subsidiam alguns produtores de conteúdo. Nos dois casos, no entanto, não é claro para o público como exercem esse papel. As novas legislações sobre o tema exigem, basicamente, maior transparência.

“O serviço que as plataformas vendem é, em essência, a moderação de conteúdo”, diz Ricardo Campos, professor da Universidade Goethe, em Frankfurt. Ele vem participando das discussões no Congresso brasileiro a respeito do Projeto de Lei 2630, a “Lei das Fake News”, cuja ementa destaca justamente a questão da transparência. Campos, um dos maiores especialistas mundiais no assunto, é o entrevistado no minipodcast da semana.

continua após a publicidade
Ataques em escolas: Ministério da Justiça pede exclusão de mais de 400 contas do Twitter  Foto: WERTHER SANTANA/ESTADÃO

A lei que vem sendo discutida no Brasil se inspira no Digital Services Act (DSA) recentemente aprovado na União Europeia.

“Nos últimos tempos, a Europa tem sido exportadora de regulações digitais”, diz Campos. O DSA responsabiliza claramente as plataformas pelo conteúdo que publicam.

continua após a publicidade

Na Alemanha, por exemplo, elas são responsáveis por retirar do ar conteúdos que firam as leis contra discurso de ódio. Além disso, uma ferramenta permite que um cidadão que se sinta difamado possa alertar a rede social que publicou o conteúdo. Por ser moderadora, a plataforma tem a obrigação de justificar por que decidiu mantê-lo ou removê-lo.

Várias plataformas já subsidiam produtores de conteúdo jornalístico – mas isso também não ocorre de forma transparente. Na Austrália, criou-se a figura de um mediador entre as plataformas e as empresas jornalísticas – alternativas e de legado – com o objetivo de definir critérios claros sobre o tema.

continua após a publicidade

“O estado democrático não se assenta apenas na estrutura organizacional, mas também no debate que ocorre na esfera pública – e para isso é fundamental o trabalho do jornalismo profissional”, diz Campos. Faz sentido, assim, que as especificidades do ofício – e suas formas de remuneração na era digital – façam parte do debate entre os cidadãos e entre os parlamentares escolhidos por eles.

Para saber mais

Mini-podcast com Ricardo Campos

continua após a publicidade

Seu navegador não suporta esse video.

Ouça entrevista com o professor da Universidade Goethe, em Frankfurt

O projeto da “Lei das Fake News”

Coluna sobre a legislação europeia

continua após a publicidade

Reportagem do Estadão sobre a nova portaria do governo

As barbaridades perpetradas em escolas em Blumenau e São Paulo desencadearam um debate sobre a responsabilidade das plataformas digitais. O Ministério da Justiça emitiu, na quarta-feira passada, portaria que impede o compartilhamento de conteúdos que façam ameaças ou incentivem ataques em escolas.

O debate sobre o assunto é mundial e é balizado por duas perguntas. Primeira: as plataformas são responsáveis pelos conteúdos que publicam? Segunda: elas devem remunerar os produtores de conteúdo? São, no entanto, falsas questões. As plataformas, com seus algoritmos, já exercem papel moderador. E, igualmente, já subsidiam alguns produtores de conteúdo. Nos dois casos, no entanto, não é claro para o público como exercem esse papel. As novas legislações sobre o tema exigem, basicamente, maior transparência.

“O serviço que as plataformas vendem é, em essência, a moderação de conteúdo”, diz Ricardo Campos, professor da Universidade Goethe, em Frankfurt. Ele vem participando das discussões no Congresso brasileiro a respeito do Projeto de Lei 2630, a “Lei das Fake News”, cuja ementa destaca justamente a questão da transparência. Campos, um dos maiores especialistas mundiais no assunto, é o entrevistado no minipodcast da semana.

Ataques em escolas: Ministério da Justiça pede exclusão de mais de 400 contas do Twitter  Foto: WERTHER SANTANA/ESTADÃO

A lei que vem sendo discutida no Brasil se inspira no Digital Services Act (DSA) recentemente aprovado na União Europeia.

“Nos últimos tempos, a Europa tem sido exportadora de regulações digitais”, diz Campos. O DSA responsabiliza claramente as plataformas pelo conteúdo que publicam.

Na Alemanha, por exemplo, elas são responsáveis por retirar do ar conteúdos que firam as leis contra discurso de ódio. Além disso, uma ferramenta permite que um cidadão que se sinta difamado possa alertar a rede social que publicou o conteúdo. Por ser moderadora, a plataforma tem a obrigação de justificar por que decidiu mantê-lo ou removê-lo.

Várias plataformas já subsidiam produtores de conteúdo jornalístico – mas isso também não ocorre de forma transparente. Na Austrália, criou-se a figura de um mediador entre as plataformas e as empresas jornalísticas – alternativas e de legado – com o objetivo de definir critérios claros sobre o tema.

“O estado democrático não se assenta apenas na estrutura organizacional, mas também no debate que ocorre na esfera pública – e para isso é fundamental o trabalho do jornalismo profissional”, diz Campos. Faz sentido, assim, que as especificidades do ofício – e suas formas de remuneração na era digital – façam parte do debate entre os cidadãos e entre os parlamentares escolhidos por eles.

Para saber mais

Mini-podcast com Ricardo Campos

Seu navegador não suporta esse video.

Ouça entrevista com o professor da Universidade Goethe, em Frankfurt

O projeto da “Lei das Fake News”

Coluna sobre a legislação europeia

Reportagem do Estadão sobre a nova portaria do governo

As barbaridades perpetradas em escolas em Blumenau e São Paulo desencadearam um debate sobre a responsabilidade das plataformas digitais. O Ministério da Justiça emitiu, na quarta-feira passada, portaria que impede o compartilhamento de conteúdos que façam ameaças ou incentivem ataques em escolas.

O debate sobre o assunto é mundial e é balizado por duas perguntas. Primeira: as plataformas são responsáveis pelos conteúdos que publicam? Segunda: elas devem remunerar os produtores de conteúdo? São, no entanto, falsas questões. As plataformas, com seus algoritmos, já exercem papel moderador. E, igualmente, já subsidiam alguns produtores de conteúdo. Nos dois casos, no entanto, não é claro para o público como exercem esse papel. As novas legislações sobre o tema exigem, basicamente, maior transparência.

“O serviço que as plataformas vendem é, em essência, a moderação de conteúdo”, diz Ricardo Campos, professor da Universidade Goethe, em Frankfurt. Ele vem participando das discussões no Congresso brasileiro a respeito do Projeto de Lei 2630, a “Lei das Fake News”, cuja ementa destaca justamente a questão da transparência. Campos, um dos maiores especialistas mundiais no assunto, é o entrevistado no minipodcast da semana.

Ataques em escolas: Ministério da Justiça pede exclusão de mais de 400 contas do Twitter  Foto: WERTHER SANTANA/ESTADÃO

A lei que vem sendo discutida no Brasil se inspira no Digital Services Act (DSA) recentemente aprovado na União Europeia.

“Nos últimos tempos, a Europa tem sido exportadora de regulações digitais”, diz Campos. O DSA responsabiliza claramente as plataformas pelo conteúdo que publicam.

Na Alemanha, por exemplo, elas são responsáveis por retirar do ar conteúdos que firam as leis contra discurso de ódio. Além disso, uma ferramenta permite que um cidadão que se sinta difamado possa alertar a rede social que publicou o conteúdo. Por ser moderadora, a plataforma tem a obrigação de justificar por que decidiu mantê-lo ou removê-lo.

Várias plataformas já subsidiam produtores de conteúdo jornalístico – mas isso também não ocorre de forma transparente. Na Austrália, criou-se a figura de um mediador entre as plataformas e as empresas jornalísticas – alternativas e de legado – com o objetivo de definir critérios claros sobre o tema.

“O estado democrático não se assenta apenas na estrutura organizacional, mas também no debate que ocorre na esfera pública – e para isso é fundamental o trabalho do jornalismo profissional”, diz Campos. Faz sentido, assim, que as especificidades do ofício – e suas formas de remuneração na era digital – façam parte do debate entre os cidadãos e entre os parlamentares escolhidos por eles.

Para saber mais

Mini-podcast com Ricardo Campos

Seu navegador não suporta esse video.

Ouça entrevista com o professor da Universidade Goethe, em Frankfurt

O projeto da “Lei das Fake News”

Coluna sobre a legislação europeia

Reportagem do Estadão sobre a nova portaria do governo

As barbaridades perpetradas em escolas em Blumenau e São Paulo desencadearam um debate sobre a responsabilidade das plataformas digitais. O Ministério da Justiça emitiu, na quarta-feira passada, portaria que impede o compartilhamento de conteúdos que façam ameaças ou incentivem ataques em escolas.

O debate sobre o assunto é mundial e é balizado por duas perguntas. Primeira: as plataformas são responsáveis pelos conteúdos que publicam? Segunda: elas devem remunerar os produtores de conteúdo? São, no entanto, falsas questões. As plataformas, com seus algoritmos, já exercem papel moderador. E, igualmente, já subsidiam alguns produtores de conteúdo. Nos dois casos, no entanto, não é claro para o público como exercem esse papel. As novas legislações sobre o tema exigem, basicamente, maior transparência.

“O serviço que as plataformas vendem é, em essência, a moderação de conteúdo”, diz Ricardo Campos, professor da Universidade Goethe, em Frankfurt. Ele vem participando das discussões no Congresso brasileiro a respeito do Projeto de Lei 2630, a “Lei das Fake News”, cuja ementa destaca justamente a questão da transparência. Campos, um dos maiores especialistas mundiais no assunto, é o entrevistado no minipodcast da semana.

Ataques em escolas: Ministério da Justiça pede exclusão de mais de 400 contas do Twitter  Foto: WERTHER SANTANA/ESTADÃO

A lei que vem sendo discutida no Brasil se inspira no Digital Services Act (DSA) recentemente aprovado na União Europeia.

“Nos últimos tempos, a Europa tem sido exportadora de regulações digitais”, diz Campos. O DSA responsabiliza claramente as plataformas pelo conteúdo que publicam.

Na Alemanha, por exemplo, elas são responsáveis por retirar do ar conteúdos que firam as leis contra discurso de ódio. Além disso, uma ferramenta permite que um cidadão que se sinta difamado possa alertar a rede social que publicou o conteúdo. Por ser moderadora, a plataforma tem a obrigação de justificar por que decidiu mantê-lo ou removê-lo.

Várias plataformas já subsidiam produtores de conteúdo jornalístico – mas isso também não ocorre de forma transparente. Na Austrália, criou-se a figura de um mediador entre as plataformas e as empresas jornalísticas – alternativas e de legado – com o objetivo de definir critérios claros sobre o tema.

“O estado democrático não se assenta apenas na estrutura organizacional, mas também no debate que ocorre na esfera pública – e para isso é fundamental o trabalho do jornalismo profissional”, diz Campos. Faz sentido, assim, que as especificidades do ofício – e suas formas de remuneração na era digital – façam parte do debate entre os cidadãos e entre os parlamentares escolhidos por eles.

Para saber mais

Mini-podcast com Ricardo Campos

Seu navegador não suporta esse video.

Ouça entrevista com o professor da Universidade Goethe, em Frankfurt

O projeto da “Lei das Fake News”

Coluna sobre a legislação europeia

Reportagem do Estadão sobre a nova portaria do governo

Tudo Sobre

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.