Executivos do setor de tecnologia tiveram de encarar perguntas do Congresso americano mais uma vez — e novamente não chegaram a acordo com os deputados. Os presidentes executivos do Facebook, do Google e do Twitter participaram nesta quinta-feira, 25, de uma audiência realizada pelo Comitê de Energia e Comércio da Câmara dos Estados Unidos. O tema da sessão, que aconteceu por videoconferência, foi a desinformação nas plataformas digitais, com foco em acontecimentos recentes, como o ataque ao Capitólio em 6 de janeiro e também assuntos relacionados à pandemia.
Ao longo de mais de cinco horas de sessão, repetiu-se um padrão visto em últimas audiências sobre temas tecnológicos: republicanos se preocuparam principalmente em questionar restrições a conteúdos e perfis conservadores em plataformas digitais — como o banimento do ex-presidente Donald Trump em redes sociais —, enquanto democratas culparam as empresas por permitirem a disseminação de desinformação e discurso de ódio na internet, inclusive atribuindo responsabilidade às plataformas pela invasão ao Capitólio. O resultado foi uma audiência polarizada, que tocou pouco em medidas práticas de regulamentação do setor, apesar do consenso entre os dois partidos de que as gigantes de tecnologia têm muito mais poder do que deveriam.
Por ser a primeira audiência com executivos de tecnologia após a invasão do Parlamento dos EUA, a influência e as ações das redes sociais em relação ao episódio foram naturalmente um tema muito discutido. “Esse ataque, e o movimento que o motivou, começou e se alimentou nas plataformas digitais. Suas plataformas sugeriram grupos para as pessoas participarem, vídeos que deveriam assistir e postagens que deveriam gostar, impulsionando esse movimento com velocidade e eficiência assustadoras”, disse logo no início da audiência o deputado democrata Mike Doyle, que presidiu a sessão.
Mark Zuckerberg, do Facebook, Sundar Pichai, do Google, e Jack Dorsey, do Twitter, foram incisivamente cobrados a responder com “sim ou não” se suas plataformas contribuíram com a disseminação de desinformação e o planejamento do ataque de 6 de janeiro. Dorsey disse que sim, ressaltando que o problema não é apenas dos sistemas tecnológicos. Zuckerberg e Pichai se recusaram a dar uma resposta direta.
“Acho que a responsabilidade é das pessoas que agiram para infringir a lei”, disse o presidente executivo do Facebook. “Em segundo lugar, estão as pessoas que divulgam esse conteúdo, incluindo o presidente, mas outros também, que repetiram o discurso ao longo do tempo, dizendo que a eleição foi fraudada e incentivando as pessoas a se organizarem. Acredito que essas pessoas também têm a responsabilidade principal”.
A exigência da resposta com “sim ou não”, que se repetiu em outros momentos da sessão, pareceu irritar os executivos. Durante a audiência, Dorsey chegou a publicar uma enquete em sua conta no Twitter com as opções “yes” e “no”, e um ponto de interrogação. A publicação teve mais de 40 mil votos em cerca de 30 minutos.
Entre os questionamentos, foram recorrentes assuntos relacionados à pandemia. Doyle chegou a dizer que sua equipe encontrou facilmente conteúdo anti-vacina no Facebook, no Instagram, no Twitter e no YouTube. "Vocês podem remover o conteúdo, podem reduzir o alcance e podem consertar isso. Mas vocês optam por não fazê-lo", afirmou. "Repetidamente, vocês escolhem engajamento e lucro em vez da saúde e segurança dos usuários."
À frente de um cenário que parecia ser uma cozinha, Dorsey repetiu em seus depoimentos que o Twitter comete “erros de priorização e execução” e disse que sua empresa “se compromete a ser mais aberta sobre isso”. Ele ainda defendeu a moderação de conteúdo: “Se acordássemos amanhã e decidíssemos parar de moderar o conteúdo, teríamos um serviço que poucas pessoas ou anunciantes gostariam de usar”.
Os deputados também fizeram perguntas sobre outros assuntos, como uso de plataformas digitais por crianças, bullying e discursos de ódio direcionados a grupos específicos, como asiáticos.
Lei em debate
Um dos pontos centrais sobre moderação de conteúdo na internet é a Seção 230. Na audiência, porém, houve pouco avanço prático em relação à legislação. Introduzida em 1996 nos EUA, a lei garante regras sobre liberdade de expressão e moderação de conteúdo na internet. Basicamente, a regra diz que as plataformas e sites não são responsáveis pelo conteúdo ali publicado por terceiros. Ao fazer isso, a norma garante a liberdade de expressão e evita que as plataformas sejam inundadas por processos judiciais, o que ajudou a internet a crescer, especialmente em seus primeiros anos. Há várias leis propostas por democratas para reformar a Seção 230 no Congresso americano e vários legisladores republicanos também têm pressionado separadamente pela revogação completa da lei.
Quem se posicionou mais assertivamente sobre a Seção 230 foi Mark Zuckerberg. Já no depoimento preparado para a audiência nesta quarta-feira, 24, o presidente executivo do Facebook definiu etapas para reforma da lei, dizendo que as empresas devem ter imunidade de responsabilidade se seguirem as melhores práticas para remoção de conteúdo prejudicial de suas plataformas.
"As plataformas não deveriam ser responsabilizadas caso um determinado conteúdo fuja de sua detecção — isso seria impraticável para plataformas com bilhões de postagens por dia — mas devem ser obrigadas a ter sistemas adequados para lidar com o conteúdo ilegal", escreveu Zuckerberg no documento.
O sistema de detecção proposto por Zuckerberg seria proporcional ao tamanho da plataforma, com práticas definidas por terceiros. Ele também sugeriu que o Congresso traga mais transparência e supervisão sobre como as empresas criam e aplicam regras sobre conteúdos que não são exatamente ilegais, mas são prejudiciais. Além disso, o executivo incentivou a criação de regras de transparência na lei, obrigando as empresas a reportar sobre os números de conteúdos danosos que foram removidos e quão efetivos foram os seus sistemas de detecção desses materiais.
Já Dorsey, do Twitter, não apontou em depoimento preparado o que pensa da Seção 230, mas deu caminhos sobre como acha que a rede social deve combater a desinformação: ganhando confiança. “Sem confiança, sabemos que o público continuará questionando as nossas ações de fiscalização. Eu acredito que podemos ganhar confiança ao focar em melhorar transparência, garantir justiça processual, escolha algorítmica e fortalecendo a privacidade”, escreveu.
Dorsey defendeu que o Twitter deixasse mais claro para usuários como reporta e revisa denúncias que violariam as políticas internas da rede social, usando aprendizado de máquina e curadoria humana para checar posts que descumpririam as regras da empresa. Atualmente, a rede social pede ajuda dos próprios usuários em todo o mundo para entender como resolver casos em que líderes mundiais violam os termos internos.
Outro ponto ressaltado na audiência é que Dorsey reconheceu que há mais para se fazer em termos de transparência nos algoritmos da empresa, sem especificar no que as equipes do Twitter estão trabalhando para garantir maior clareza em como funciona a rede social para os usuários.
Atualmente, o Twitter trabalha em dois projetos que procuram endereçar a questão de desinformação nas redes sociais: o projeto piloto Birdwatch, em que usuários da plataforma ajudam a dar feedback em tempo real sobre tuítes que contenham desinformação, e o projeto Bluesky, mais ambicioso e que reúne equipes de tecnologia da informação e designers para criar um código aberto e descentralizado e que seja padrão para as redes sociais e promover conversas mais saudáveis em várias plataformas.
Sundar Pichai, presidente executivo do Google, defendeu em seu testemunho de abertura a importância da Seção 230, que permite que as plataformas de tecnologia tragam diferentes pontos de vista e possam remover conteúdos danosos aos usuários, sendo “fundamental” para a internet aberta, declarou. Ele chamou atenção, no entanto, para o fato de que algumas propostas para a legislação podem desvirtuar esse espírito da peça legislativa, danificando tanto a liberdade de expressão quanto tirando das plataformas a habilidade de proteger seus usuários em tempos desafiadores.
“Nós talvez alcancemos os nossos objetivos compartilhados ao focar em garantir transparência, justiça e efetividade nos processos ao endereçar conteúdo e comportamento danoso. Soluções podem incluir desenvolver políticas de conteúdo que são claras e acessíveis; notificar as pessoas quando o conteúdo delas é removido e dar a elas maneiras de apelar das decisões; e compartilhar como os sistemas desenhados para lidar com conteúdo danoso são alterados com o tempo”, defendeu o presidente do Google.
Audiências com a presença dos líderes de gigantes de tecnologia têm se tornado cada vez mais frequentes nos EUA. Desde 2018, Pichai testemunhou em três ocasiões diferentes. Dorsey já fez quatro aparições, enquanto Zuckerberg testemunhou seis vezes. Só no ano passado, foram duas sessões: uma em julho sobre concorrência desleal e outra em outubro sobre liberdade de expressão e interferência política em redes sociais.