Notícias e artigos do mundo do Direito: a rotina da Polícia, Ministério Público e Tribunais

Para regular plataformas precisamos de abordagem progressiva


Por Luca Belli
Luca Belli. Foto: FGV/Divulgação

Nas últimas semanas, o debate sobre regulação de plataformas aqueceu consideravelmente, delineando os ingredientes do que poderia ser a tempestade perfeita para os provedores de aplicações.

Os ataques do 8 de janeiro catapultaram a discussão da responsabilidade das redes sociais ao topo das prioridades do novo governo, tendo sido os atacantes inflamados e organizados principalmente por meio de redes sociais.

continua após a publicidade

A recente conferência internacional da UNESCO sobre "Internet for Trust", que teve enorme participação brasileira, foi a ocasião para o Brasil voltar ao protagonismo internacional nas políticas digitais, com o anúncio dos planos do governo para regulação e responsabilização de plataformas.

Neste contexto, o Supremo Tribunal Federal (STF) deve se pronunciar sobre a constitucionalidade do Artigo 19 do Marco Civil da Internet (MCI), que define o regime de responsabilidade dos provedores de aplicativos. O STF organiza esta semana uma audiência pública sobre moderação de conteúdo online, para avaliar as diferentes opiniões sobre o debate.

Para entender qual postura seria a mais adequada para regular plataformas digitais, é essencial destacar que a natureza e as discussões sobre responsabilização de provedores de aplicativos evoluíram consideravelmente ao longo das duas últimas décadas.

continua após a publicidade

O contexto tecnológico, econômico e, consequentemente, normativo, hoje é radicalmente diferente do final da década dos anos noventa e começo dos anos dois mil, quando os regimes de responsabilização de intermediários de Internet foram elaborados ao redor do mundo e tomados como exemplos para a elaboração do MCI.

Em primeiro lugar, quando a maioria dos marcos regulatórios sobre responsabilidade de intermediários foi concebida, não havia mega plataformas dominantes cujos ecossistemas integrassem um amplo espectro de serviços essenciais para as interações sociais, econômicas e democráticas.

Provedores de aplicações nos anos 1990 eram principalmente atores de pequeno ou médio porte, cujo funcionamento era baseado em ferramentas algorítmicas básicas. Somente no final dos anos 2000 começaram a se consolidar como atores dominantes e implementar sistemas algorítmicos mais sofisticados.

continua após a publicidade

Na última década, algumas plataformas adquiriram um papel essencial para nossas comunicações e atividades cotidianas, e começaram a implementar em escala sistemas de recomendação algorítmica extremamente sofisticados, com potencial impacto social, extremamente elevado.

É extremamente importante ressaltar que esta evolução de escala não comporta simplesmente uma ampliação da base de usuários, mas uma real transformação estrutural na governança das maiores plataformas que, na década de 2010, se tornaram empresas de capital aberto.

Tal mudança teve um impacto radical, sendo evidente que as obrigações fiduciárias dos executivos de empresas de capital aberto não incluem a maximização de direitos humanos ou o fortalecimento da democracia, mas, sim, responder ao imperativo de constante maximização de benefícios dos acionistas e redução de custos.

continua após a publicidade

Uma variável relevante, que condicionou enormemente a predominância de certos atores no mercado comunicacional brasileiro, é a introdução dos chamados planos de "zero rating", no âmbito dos quais o acesso móvel a alguns aplicativos - tipicamente redes sociais - é patrocinado sem consumação de franquia de dados.

A prática, que pode parecer benéfica a um avaliador inexperto, pode levar à concentração do mercado e causar prejuízos à saúde informacional, como demonstrado em vários estudos, e é claramente contrária ao princípio da neutralidade da rede, como destacado por especialistas há anos, inclusive por quem escreve, e pelo Tribunal de Justiça da União Europeia, desde 2020.

Soma-se à predominância de certos atores no mercado informacional digital o problema do uso de dados comportamentais e dados pessoais para a criação de sistemas de recomendação algorítmica. Tais sistemas são implementados, majoritariamente, tendo o engajamento como métrica principal, de modo a determinar quais conteúdos serão priorizados ou tornados menos visíveis, aproximando tais plataformas a empresas com capacidade editorial.

continua após a publicidade

Sendo engajamento a métrica para a recomendação algorítmica pelas plataformas, sem quaisquer filtros ou dever de cuidado sobre o conteúdo recomendado, dada a ausência de diligências mínimas pelas plataformas nessa atividade, há potencial de que elas recomendem ativamente conteúdos nocivos. É demonstrado que conteúdos desinformativos, polêmicos e nocivos possuem maior potencial de engajamento.

Neste contexto, é essencial frisar que certos tipos de conteúdo são considerados socialmente indesejáveis e merecedores de regulação particularmente restritiva há quase 70 anos pela comunidade internacional e há mais de 30 anos pelo Brasil.

As interpretações em relação ao direito de liberdade de expressão, como previsto no artigo 19 do Pacto Internacional de Direitos Civis e Políticos (PIDCD), admitem restrições necessárias e proporcionais em caso de colisões com direitos fundamentais e reservas legais para fins legítimos e proteção da democracia.

continua após a publicidade

Não somente o Brasil se comprometeu à execução e cumprimento integral do PIDCD, integrando-o com decreto desde 1992, mas a jurisprudência do STF tem continuamente afirmado restrições a discursos nocivos, como racismo, antissemitismo, homofobia e incitação ao ódio.

Assim, é necessário considerar que as diferenças de tamanho, estrutura algorítmica e tipo de conteúdo veiculados por plataformas impõem, necessariamente, a adoção de uma abordagem proporcional no nível de responsabilização de cada tipo de provedor, devido à radical diferença de risco sistêmico conectado a cada tipo de ator.

A necessidade de uma abordagem diferenciada e progressiva é baseada no entendimento de que, não somente tamanhos diferentes implicam um impacto social radicalmente diferente, mas também sistemas algorítmicos diferentes e tipos de conteúdo veiculado por aplicativos determinam níveis de riscos incomparáveis.

Tais riscos devem ser avaliados tomando em consideração as inúmeras evidências empíricas comprovando não somente a existência de comportamentos coordenados de má-fé direcionados à manipulação de processos democráticos ou ataque de indivíduos ou grupos de indivíduos, mas também a existência de vieses na amplificação algorítmica, cujas dinâmicas não são explicáveis nem pelas próprias empresas.

Adotar uma abordagem progressiva, baseada em riscos e na previsão de deveres de cuidado aprimorados para plataformas de tamanho impacto e risco maior, é essencial para promover um ambiente digital sustentável.

Não entender esta evolução tecnológica econômica e regulatória é muito ingênuo, na melhor das hipóteses, ou falsamente ingênuo, na pior.

*Luca Belli, professor e coordenador do Centro de Tecnologia e Sociedade da FGV Direito Rio

Este artigo expressa a opinião do autor, não representando necessariamente a opinião institucional da FGV

Luca Belli. Foto: FGV/Divulgação

Nas últimas semanas, o debate sobre regulação de plataformas aqueceu consideravelmente, delineando os ingredientes do que poderia ser a tempestade perfeita para os provedores de aplicações.

Os ataques do 8 de janeiro catapultaram a discussão da responsabilidade das redes sociais ao topo das prioridades do novo governo, tendo sido os atacantes inflamados e organizados principalmente por meio de redes sociais.

A recente conferência internacional da UNESCO sobre "Internet for Trust", que teve enorme participação brasileira, foi a ocasião para o Brasil voltar ao protagonismo internacional nas políticas digitais, com o anúncio dos planos do governo para regulação e responsabilização de plataformas.

Neste contexto, o Supremo Tribunal Federal (STF) deve se pronunciar sobre a constitucionalidade do Artigo 19 do Marco Civil da Internet (MCI), que define o regime de responsabilidade dos provedores de aplicativos. O STF organiza esta semana uma audiência pública sobre moderação de conteúdo online, para avaliar as diferentes opiniões sobre o debate.

Para entender qual postura seria a mais adequada para regular plataformas digitais, é essencial destacar que a natureza e as discussões sobre responsabilização de provedores de aplicativos evoluíram consideravelmente ao longo das duas últimas décadas.

O contexto tecnológico, econômico e, consequentemente, normativo, hoje é radicalmente diferente do final da década dos anos noventa e começo dos anos dois mil, quando os regimes de responsabilização de intermediários de Internet foram elaborados ao redor do mundo e tomados como exemplos para a elaboração do MCI.

Em primeiro lugar, quando a maioria dos marcos regulatórios sobre responsabilidade de intermediários foi concebida, não havia mega plataformas dominantes cujos ecossistemas integrassem um amplo espectro de serviços essenciais para as interações sociais, econômicas e democráticas.

Provedores de aplicações nos anos 1990 eram principalmente atores de pequeno ou médio porte, cujo funcionamento era baseado em ferramentas algorítmicas básicas. Somente no final dos anos 2000 começaram a se consolidar como atores dominantes e implementar sistemas algorítmicos mais sofisticados.

Na última década, algumas plataformas adquiriram um papel essencial para nossas comunicações e atividades cotidianas, e começaram a implementar em escala sistemas de recomendação algorítmica extremamente sofisticados, com potencial impacto social, extremamente elevado.

É extremamente importante ressaltar que esta evolução de escala não comporta simplesmente uma ampliação da base de usuários, mas uma real transformação estrutural na governança das maiores plataformas que, na década de 2010, se tornaram empresas de capital aberto.

Tal mudança teve um impacto radical, sendo evidente que as obrigações fiduciárias dos executivos de empresas de capital aberto não incluem a maximização de direitos humanos ou o fortalecimento da democracia, mas, sim, responder ao imperativo de constante maximização de benefícios dos acionistas e redução de custos.

Uma variável relevante, que condicionou enormemente a predominância de certos atores no mercado comunicacional brasileiro, é a introdução dos chamados planos de "zero rating", no âmbito dos quais o acesso móvel a alguns aplicativos - tipicamente redes sociais - é patrocinado sem consumação de franquia de dados.

A prática, que pode parecer benéfica a um avaliador inexperto, pode levar à concentração do mercado e causar prejuízos à saúde informacional, como demonstrado em vários estudos, e é claramente contrária ao princípio da neutralidade da rede, como destacado por especialistas há anos, inclusive por quem escreve, e pelo Tribunal de Justiça da União Europeia, desde 2020.

Soma-se à predominância de certos atores no mercado informacional digital o problema do uso de dados comportamentais e dados pessoais para a criação de sistemas de recomendação algorítmica. Tais sistemas são implementados, majoritariamente, tendo o engajamento como métrica principal, de modo a determinar quais conteúdos serão priorizados ou tornados menos visíveis, aproximando tais plataformas a empresas com capacidade editorial.

Sendo engajamento a métrica para a recomendação algorítmica pelas plataformas, sem quaisquer filtros ou dever de cuidado sobre o conteúdo recomendado, dada a ausência de diligências mínimas pelas plataformas nessa atividade, há potencial de que elas recomendem ativamente conteúdos nocivos. É demonstrado que conteúdos desinformativos, polêmicos e nocivos possuem maior potencial de engajamento.

Neste contexto, é essencial frisar que certos tipos de conteúdo são considerados socialmente indesejáveis e merecedores de regulação particularmente restritiva há quase 70 anos pela comunidade internacional e há mais de 30 anos pelo Brasil.

As interpretações em relação ao direito de liberdade de expressão, como previsto no artigo 19 do Pacto Internacional de Direitos Civis e Políticos (PIDCD), admitem restrições necessárias e proporcionais em caso de colisões com direitos fundamentais e reservas legais para fins legítimos e proteção da democracia.

Não somente o Brasil se comprometeu à execução e cumprimento integral do PIDCD, integrando-o com decreto desde 1992, mas a jurisprudência do STF tem continuamente afirmado restrições a discursos nocivos, como racismo, antissemitismo, homofobia e incitação ao ódio.

Assim, é necessário considerar que as diferenças de tamanho, estrutura algorítmica e tipo de conteúdo veiculados por plataformas impõem, necessariamente, a adoção de uma abordagem proporcional no nível de responsabilização de cada tipo de provedor, devido à radical diferença de risco sistêmico conectado a cada tipo de ator.

A necessidade de uma abordagem diferenciada e progressiva é baseada no entendimento de que, não somente tamanhos diferentes implicam um impacto social radicalmente diferente, mas também sistemas algorítmicos diferentes e tipos de conteúdo veiculado por aplicativos determinam níveis de riscos incomparáveis.

Tais riscos devem ser avaliados tomando em consideração as inúmeras evidências empíricas comprovando não somente a existência de comportamentos coordenados de má-fé direcionados à manipulação de processos democráticos ou ataque de indivíduos ou grupos de indivíduos, mas também a existência de vieses na amplificação algorítmica, cujas dinâmicas não são explicáveis nem pelas próprias empresas.

Adotar uma abordagem progressiva, baseada em riscos e na previsão de deveres de cuidado aprimorados para plataformas de tamanho impacto e risco maior, é essencial para promover um ambiente digital sustentável.

Não entender esta evolução tecnológica econômica e regulatória é muito ingênuo, na melhor das hipóteses, ou falsamente ingênuo, na pior.

*Luca Belli, professor e coordenador do Centro de Tecnologia e Sociedade da FGV Direito Rio

Este artigo expressa a opinião do autor, não representando necessariamente a opinião institucional da FGV

Luca Belli. Foto: FGV/Divulgação

Nas últimas semanas, o debate sobre regulação de plataformas aqueceu consideravelmente, delineando os ingredientes do que poderia ser a tempestade perfeita para os provedores de aplicações.

Os ataques do 8 de janeiro catapultaram a discussão da responsabilidade das redes sociais ao topo das prioridades do novo governo, tendo sido os atacantes inflamados e organizados principalmente por meio de redes sociais.

A recente conferência internacional da UNESCO sobre "Internet for Trust", que teve enorme participação brasileira, foi a ocasião para o Brasil voltar ao protagonismo internacional nas políticas digitais, com o anúncio dos planos do governo para regulação e responsabilização de plataformas.

Neste contexto, o Supremo Tribunal Federal (STF) deve se pronunciar sobre a constitucionalidade do Artigo 19 do Marco Civil da Internet (MCI), que define o regime de responsabilidade dos provedores de aplicativos. O STF organiza esta semana uma audiência pública sobre moderação de conteúdo online, para avaliar as diferentes opiniões sobre o debate.

Para entender qual postura seria a mais adequada para regular plataformas digitais, é essencial destacar que a natureza e as discussões sobre responsabilização de provedores de aplicativos evoluíram consideravelmente ao longo das duas últimas décadas.

O contexto tecnológico, econômico e, consequentemente, normativo, hoje é radicalmente diferente do final da década dos anos noventa e começo dos anos dois mil, quando os regimes de responsabilização de intermediários de Internet foram elaborados ao redor do mundo e tomados como exemplos para a elaboração do MCI.

Em primeiro lugar, quando a maioria dos marcos regulatórios sobre responsabilidade de intermediários foi concebida, não havia mega plataformas dominantes cujos ecossistemas integrassem um amplo espectro de serviços essenciais para as interações sociais, econômicas e democráticas.

Provedores de aplicações nos anos 1990 eram principalmente atores de pequeno ou médio porte, cujo funcionamento era baseado em ferramentas algorítmicas básicas. Somente no final dos anos 2000 começaram a se consolidar como atores dominantes e implementar sistemas algorítmicos mais sofisticados.

Na última década, algumas plataformas adquiriram um papel essencial para nossas comunicações e atividades cotidianas, e começaram a implementar em escala sistemas de recomendação algorítmica extremamente sofisticados, com potencial impacto social, extremamente elevado.

É extremamente importante ressaltar que esta evolução de escala não comporta simplesmente uma ampliação da base de usuários, mas uma real transformação estrutural na governança das maiores plataformas que, na década de 2010, se tornaram empresas de capital aberto.

Tal mudança teve um impacto radical, sendo evidente que as obrigações fiduciárias dos executivos de empresas de capital aberto não incluem a maximização de direitos humanos ou o fortalecimento da democracia, mas, sim, responder ao imperativo de constante maximização de benefícios dos acionistas e redução de custos.

Uma variável relevante, que condicionou enormemente a predominância de certos atores no mercado comunicacional brasileiro, é a introdução dos chamados planos de "zero rating", no âmbito dos quais o acesso móvel a alguns aplicativos - tipicamente redes sociais - é patrocinado sem consumação de franquia de dados.

A prática, que pode parecer benéfica a um avaliador inexperto, pode levar à concentração do mercado e causar prejuízos à saúde informacional, como demonstrado em vários estudos, e é claramente contrária ao princípio da neutralidade da rede, como destacado por especialistas há anos, inclusive por quem escreve, e pelo Tribunal de Justiça da União Europeia, desde 2020.

Soma-se à predominância de certos atores no mercado informacional digital o problema do uso de dados comportamentais e dados pessoais para a criação de sistemas de recomendação algorítmica. Tais sistemas são implementados, majoritariamente, tendo o engajamento como métrica principal, de modo a determinar quais conteúdos serão priorizados ou tornados menos visíveis, aproximando tais plataformas a empresas com capacidade editorial.

Sendo engajamento a métrica para a recomendação algorítmica pelas plataformas, sem quaisquer filtros ou dever de cuidado sobre o conteúdo recomendado, dada a ausência de diligências mínimas pelas plataformas nessa atividade, há potencial de que elas recomendem ativamente conteúdos nocivos. É demonstrado que conteúdos desinformativos, polêmicos e nocivos possuem maior potencial de engajamento.

Neste contexto, é essencial frisar que certos tipos de conteúdo são considerados socialmente indesejáveis e merecedores de regulação particularmente restritiva há quase 70 anos pela comunidade internacional e há mais de 30 anos pelo Brasil.

As interpretações em relação ao direito de liberdade de expressão, como previsto no artigo 19 do Pacto Internacional de Direitos Civis e Políticos (PIDCD), admitem restrições necessárias e proporcionais em caso de colisões com direitos fundamentais e reservas legais para fins legítimos e proteção da democracia.

Não somente o Brasil se comprometeu à execução e cumprimento integral do PIDCD, integrando-o com decreto desde 1992, mas a jurisprudência do STF tem continuamente afirmado restrições a discursos nocivos, como racismo, antissemitismo, homofobia e incitação ao ódio.

Assim, é necessário considerar que as diferenças de tamanho, estrutura algorítmica e tipo de conteúdo veiculados por plataformas impõem, necessariamente, a adoção de uma abordagem proporcional no nível de responsabilização de cada tipo de provedor, devido à radical diferença de risco sistêmico conectado a cada tipo de ator.

A necessidade de uma abordagem diferenciada e progressiva é baseada no entendimento de que, não somente tamanhos diferentes implicam um impacto social radicalmente diferente, mas também sistemas algorítmicos diferentes e tipos de conteúdo veiculado por aplicativos determinam níveis de riscos incomparáveis.

Tais riscos devem ser avaliados tomando em consideração as inúmeras evidências empíricas comprovando não somente a existência de comportamentos coordenados de má-fé direcionados à manipulação de processos democráticos ou ataque de indivíduos ou grupos de indivíduos, mas também a existência de vieses na amplificação algorítmica, cujas dinâmicas não são explicáveis nem pelas próprias empresas.

Adotar uma abordagem progressiva, baseada em riscos e na previsão de deveres de cuidado aprimorados para plataformas de tamanho impacto e risco maior, é essencial para promover um ambiente digital sustentável.

Não entender esta evolução tecnológica econômica e regulatória é muito ingênuo, na melhor das hipóteses, ou falsamente ingênuo, na pior.

*Luca Belli, professor e coordenador do Centro de Tecnologia e Sociedade da FGV Direito Rio

Este artigo expressa a opinião do autor, não representando necessariamente a opinião institucional da FGV

Luca Belli. Foto: FGV/Divulgação

Nas últimas semanas, o debate sobre regulação de plataformas aqueceu consideravelmente, delineando os ingredientes do que poderia ser a tempestade perfeita para os provedores de aplicações.

Os ataques do 8 de janeiro catapultaram a discussão da responsabilidade das redes sociais ao topo das prioridades do novo governo, tendo sido os atacantes inflamados e organizados principalmente por meio de redes sociais.

A recente conferência internacional da UNESCO sobre "Internet for Trust", que teve enorme participação brasileira, foi a ocasião para o Brasil voltar ao protagonismo internacional nas políticas digitais, com o anúncio dos planos do governo para regulação e responsabilização de plataformas.

Neste contexto, o Supremo Tribunal Federal (STF) deve se pronunciar sobre a constitucionalidade do Artigo 19 do Marco Civil da Internet (MCI), que define o regime de responsabilidade dos provedores de aplicativos. O STF organiza esta semana uma audiência pública sobre moderação de conteúdo online, para avaliar as diferentes opiniões sobre o debate.

Para entender qual postura seria a mais adequada para regular plataformas digitais, é essencial destacar que a natureza e as discussões sobre responsabilização de provedores de aplicativos evoluíram consideravelmente ao longo das duas últimas décadas.

O contexto tecnológico, econômico e, consequentemente, normativo, hoje é radicalmente diferente do final da década dos anos noventa e começo dos anos dois mil, quando os regimes de responsabilização de intermediários de Internet foram elaborados ao redor do mundo e tomados como exemplos para a elaboração do MCI.

Em primeiro lugar, quando a maioria dos marcos regulatórios sobre responsabilidade de intermediários foi concebida, não havia mega plataformas dominantes cujos ecossistemas integrassem um amplo espectro de serviços essenciais para as interações sociais, econômicas e democráticas.

Provedores de aplicações nos anos 1990 eram principalmente atores de pequeno ou médio porte, cujo funcionamento era baseado em ferramentas algorítmicas básicas. Somente no final dos anos 2000 começaram a se consolidar como atores dominantes e implementar sistemas algorítmicos mais sofisticados.

Na última década, algumas plataformas adquiriram um papel essencial para nossas comunicações e atividades cotidianas, e começaram a implementar em escala sistemas de recomendação algorítmica extremamente sofisticados, com potencial impacto social, extremamente elevado.

É extremamente importante ressaltar que esta evolução de escala não comporta simplesmente uma ampliação da base de usuários, mas uma real transformação estrutural na governança das maiores plataformas que, na década de 2010, se tornaram empresas de capital aberto.

Tal mudança teve um impacto radical, sendo evidente que as obrigações fiduciárias dos executivos de empresas de capital aberto não incluem a maximização de direitos humanos ou o fortalecimento da democracia, mas, sim, responder ao imperativo de constante maximização de benefícios dos acionistas e redução de custos.

Uma variável relevante, que condicionou enormemente a predominância de certos atores no mercado comunicacional brasileiro, é a introdução dos chamados planos de "zero rating", no âmbito dos quais o acesso móvel a alguns aplicativos - tipicamente redes sociais - é patrocinado sem consumação de franquia de dados.

A prática, que pode parecer benéfica a um avaliador inexperto, pode levar à concentração do mercado e causar prejuízos à saúde informacional, como demonstrado em vários estudos, e é claramente contrária ao princípio da neutralidade da rede, como destacado por especialistas há anos, inclusive por quem escreve, e pelo Tribunal de Justiça da União Europeia, desde 2020.

Soma-se à predominância de certos atores no mercado informacional digital o problema do uso de dados comportamentais e dados pessoais para a criação de sistemas de recomendação algorítmica. Tais sistemas são implementados, majoritariamente, tendo o engajamento como métrica principal, de modo a determinar quais conteúdos serão priorizados ou tornados menos visíveis, aproximando tais plataformas a empresas com capacidade editorial.

Sendo engajamento a métrica para a recomendação algorítmica pelas plataformas, sem quaisquer filtros ou dever de cuidado sobre o conteúdo recomendado, dada a ausência de diligências mínimas pelas plataformas nessa atividade, há potencial de que elas recomendem ativamente conteúdos nocivos. É demonstrado que conteúdos desinformativos, polêmicos e nocivos possuem maior potencial de engajamento.

Neste contexto, é essencial frisar que certos tipos de conteúdo são considerados socialmente indesejáveis e merecedores de regulação particularmente restritiva há quase 70 anos pela comunidade internacional e há mais de 30 anos pelo Brasil.

As interpretações em relação ao direito de liberdade de expressão, como previsto no artigo 19 do Pacto Internacional de Direitos Civis e Políticos (PIDCD), admitem restrições necessárias e proporcionais em caso de colisões com direitos fundamentais e reservas legais para fins legítimos e proteção da democracia.

Não somente o Brasil se comprometeu à execução e cumprimento integral do PIDCD, integrando-o com decreto desde 1992, mas a jurisprudência do STF tem continuamente afirmado restrições a discursos nocivos, como racismo, antissemitismo, homofobia e incitação ao ódio.

Assim, é necessário considerar que as diferenças de tamanho, estrutura algorítmica e tipo de conteúdo veiculados por plataformas impõem, necessariamente, a adoção de uma abordagem proporcional no nível de responsabilização de cada tipo de provedor, devido à radical diferença de risco sistêmico conectado a cada tipo de ator.

A necessidade de uma abordagem diferenciada e progressiva é baseada no entendimento de que, não somente tamanhos diferentes implicam um impacto social radicalmente diferente, mas também sistemas algorítmicos diferentes e tipos de conteúdo veiculado por aplicativos determinam níveis de riscos incomparáveis.

Tais riscos devem ser avaliados tomando em consideração as inúmeras evidências empíricas comprovando não somente a existência de comportamentos coordenados de má-fé direcionados à manipulação de processos democráticos ou ataque de indivíduos ou grupos de indivíduos, mas também a existência de vieses na amplificação algorítmica, cujas dinâmicas não são explicáveis nem pelas próprias empresas.

Adotar uma abordagem progressiva, baseada em riscos e na previsão de deveres de cuidado aprimorados para plataformas de tamanho impacto e risco maior, é essencial para promover um ambiente digital sustentável.

Não entender esta evolução tecnológica econômica e regulatória é muito ingênuo, na melhor das hipóteses, ou falsamente ingênuo, na pior.

*Luca Belli, professor e coordenador do Centro de Tecnologia e Sociedade da FGV Direito Rio

Este artigo expressa a opinião do autor, não representando necessariamente a opinião institucional da FGV

Luca Belli. Foto: FGV/Divulgação

Nas últimas semanas, o debate sobre regulação de plataformas aqueceu consideravelmente, delineando os ingredientes do que poderia ser a tempestade perfeita para os provedores de aplicações.

Os ataques do 8 de janeiro catapultaram a discussão da responsabilidade das redes sociais ao topo das prioridades do novo governo, tendo sido os atacantes inflamados e organizados principalmente por meio de redes sociais.

A recente conferência internacional da UNESCO sobre "Internet for Trust", que teve enorme participação brasileira, foi a ocasião para o Brasil voltar ao protagonismo internacional nas políticas digitais, com o anúncio dos planos do governo para regulação e responsabilização de plataformas.

Neste contexto, o Supremo Tribunal Federal (STF) deve se pronunciar sobre a constitucionalidade do Artigo 19 do Marco Civil da Internet (MCI), que define o regime de responsabilidade dos provedores de aplicativos. O STF organiza esta semana uma audiência pública sobre moderação de conteúdo online, para avaliar as diferentes opiniões sobre o debate.

Para entender qual postura seria a mais adequada para regular plataformas digitais, é essencial destacar que a natureza e as discussões sobre responsabilização de provedores de aplicativos evoluíram consideravelmente ao longo das duas últimas décadas.

O contexto tecnológico, econômico e, consequentemente, normativo, hoje é radicalmente diferente do final da década dos anos noventa e começo dos anos dois mil, quando os regimes de responsabilização de intermediários de Internet foram elaborados ao redor do mundo e tomados como exemplos para a elaboração do MCI.

Em primeiro lugar, quando a maioria dos marcos regulatórios sobre responsabilidade de intermediários foi concebida, não havia mega plataformas dominantes cujos ecossistemas integrassem um amplo espectro de serviços essenciais para as interações sociais, econômicas e democráticas.

Provedores de aplicações nos anos 1990 eram principalmente atores de pequeno ou médio porte, cujo funcionamento era baseado em ferramentas algorítmicas básicas. Somente no final dos anos 2000 começaram a se consolidar como atores dominantes e implementar sistemas algorítmicos mais sofisticados.

Na última década, algumas plataformas adquiriram um papel essencial para nossas comunicações e atividades cotidianas, e começaram a implementar em escala sistemas de recomendação algorítmica extremamente sofisticados, com potencial impacto social, extremamente elevado.

É extremamente importante ressaltar que esta evolução de escala não comporta simplesmente uma ampliação da base de usuários, mas uma real transformação estrutural na governança das maiores plataformas que, na década de 2010, se tornaram empresas de capital aberto.

Tal mudança teve um impacto radical, sendo evidente que as obrigações fiduciárias dos executivos de empresas de capital aberto não incluem a maximização de direitos humanos ou o fortalecimento da democracia, mas, sim, responder ao imperativo de constante maximização de benefícios dos acionistas e redução de custos.

Uma variável relevante, que condicionou enormemente a predominância de certos atores no mercado comunicacional brasileiro, é a introdução dos chamados planos de "zero rating", no âmbito dos quais o acesso móvel a alguns aplicativos - tipicamente redes sociais - é patrocinado sem consumação de franquia de dados.

A prática, que pode parecer benéfica a um avaliador inexperto, pode levar à concentração do mercado e causar prejuízos à saúde informacional, como demonstrado em vários estudos, e é claramente contrária ao princípio da neutralidade da rede, como destacado por especialistas há anos, inclusive por quem escreve, e pelo Tribunal de Justiça da União Europeia, desde 2020.

Soma-se à predominância de certos atores no mercado informacional digital o problema do uso de dados comportamentais e dados pessoais para a criação de sistemas de recomendação algorítmica. Tais sistemas são implementados, majoritariamente, tendo o engajamento como métrica principal, de modo a determinar quais conteúdos serão priorizados ou tornados menos visíveis, aproximando tais plataformas a empresas com capacidade editorial.

Sendo engajamento a métrica para a recomendação algorítmica pelas plataformas, sem quaisquer filtros ou dever de cuidado sobre o conteúdo recomendado, dada a ausência de diligências mínimas pelas plataformas nessa atividade, há potencial de que elas recomendem ativamente conteúdos nocivos. É demonstrado que conteúdos desinformativos, polêmicos e nocivos possuem maior potencial de engajamento.

Neste contexto, é essencial frisar que certos tipos de conteúdo são considerados socialmente indesejáveis e merecedores de regulação particularmente restritiva há quase 70 anos pela comunidade internacional e há mais de 30 anos pelo Brasil.

As interpretações em relação ao direito de liberdade de expressão, como previsto no artigo 19 do Pacto Internacional de Direitos Civis e Políticos (PIDCD), admitem restrições necessárias e proporcionais em caso de colisões com direitos fundamentais e reservas legais para fins legítimos e proteção da democracia.

Não somente o Brasil se comprometeu à execução e cumprimento integral do PIDCD, integrando-o com decreto desde 1992, mas a jurisprudência do STF tem continuamente afirmado restrições a discursos nocivos, como racismo, antissemitismo, homofobia e incitação ao ódio.

Assim, é necessário considerar que as diferenças de tamanho, estrutura algorítmica e tipo de conteúdo veiculados por plataformas impõem, necessariamente, a adoção de uma abordagem proporcional no nível de responsabilização de cada tipo de provedor, devido à radical diferença de risco sistêmico conectado a cada tipo de ator.

A necessidade de uma abordagem diferenciada e progressiva é baseada no entendimento de que, não somente tamanhos diferentes implicam um impacto social radicalmente diferente, mas também sistemas algorítmicos diferentes e tipos de conteúdo veiculado por aplicativos determinam níveis de riscos incomparáveis.

Tais riscos devem ser avaliados tomando em consideração as inúmeras evidências empíricas comprovando não somente a existência de comportamentos coordenados de má-fé direcionados à manipulação de processos democráticos ou ataque de indivíduos ou grupos de indivíduos, mas também a existência de vieses na amplificação algorítmica, cujas dinâmicas não são explicáveis nem pelas próprias empresas.

Adotar uma abordagem progressiva, baseada em riscos e na previsão de deveres de cuidado aprimorados para plataformas de tamanho impacto e risco maior, é essencial para promover um ambiente digital sustentável.

Não entender esta evolução tecnológica econômica e regulatória é muito ingênuo, na melhor das hipóteses, ou falsamente ingênuo, na pior.

*Luca Belli, professor e coordenador do Centro de Tecnologia e Sociedade da FGV Direito Rio

Este artigo expressa a opinião do autor, não representando necessariamente a opinião institucional da FGV

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.