A ByteDance, proprietária do TikTok, fez demissões nesta segunda-feira, 18, em sua operação brasileira. Segundo profissionais afetados ouvidos pela reportagem, foram cerca de 60 cortes na equipe que analisa a qualidade da moderação da plataforma e que cuida da elaboração de políticas de segurança de conteúdo, chamada de Trust & Safety.
A ByteDance diz que não se trata de uma demissão em massa, mas sim de uma reorganização estratégica do setor. Em nota, a empresa afirma: “À medida que continuamos a cumprir nosso compromisso inabalável de proteger a comunidade do TikTok, estamos reestruturando nossa equipe de treinamento e qualidade, o que nos permitirá aprimorar ainda mais os processos de garantia de qualidade.”
Alguns dos trabalhadores afetados pelo corte já estão se manifestando sobre a demissão nas redes sociais e atualizando seus perfis com a opção “aberto a trabalho” na plataforma LinkedIn. As demissões ocorrem em um cenário de reestruturação global da divisão da companhia, que atingiu escritórios em cidades como Dublin, na Irlanda, onde “centenas” de postos de trabalho foram eliminados, segundo a imprensa local.
Antes da implementação da reestruturação, em 31 de janeiro, o CEO do TikTok, Shou Chew, anunciou em uma audiência no Congresso dos Estados Unidos o investimento de US$ 2 bilhões na área de Trust & Safety para 2024. Na ocasião, ele afirmou: “Nossas robustas diretrizes da comunidade proíbem estritamente conteúdo ou comportamento que coloque os adolescentes em risco de exploração ou outros danos, e nós as aplicamos vigorosamente”.
Atualmente, a companhia tem mais de 40 mil profissionais no setor de Trust & Safety pelo mundo, mas não está claro qual é o tamanho da equipe no Brasil.
Os trabalhadores afetados pelo corte – inclusive os que estavam de férias – foram notificados por e-mail sobre a demissão com aproximadamente um mês de antecedência. Durante esse intervalo, a ByteDance ofereceu a possibilidade de candidatura a vagas abertas na própria empresa. Após o fim do aviso prévio, os contratos foram encerrados nesta segunda.
Não há informações em relação ao número de pessoas que permaneceram na empresa. A ByteDance diz que, por questões estratégicas, não revela a quantidade de funcionários da operação brasileira antes ou após as demissões, mas diz que tem mais de mil posições abertas para moderação de conteúdo no mundo todo. A empresa afirma possuir mais de 110 mil pessoas empregadas em mais de 200 cidades no mundo.
Leia também
Moderação é um dos temas mais importantes no momento
Segundo alguns dos demitidos ouvidos pela reportagem em condição de anonimato, os cortes foram anunciados internamente em 19 de fevereiro, antes de o Tribunal Superior Eleitoral (TSE) determinar as regras de uso para redes sociais nas eleições municipais deste ano.
A resolução, editada pela ministra Cármen Lúcia e validada pelos demais integrantes da Corte, incluindo o ministro Alexandre de Moraes, presidente do TSE, determina que as plataformas de redes sociais removam conteúdos “sabidamente inverídicos” mesmo sem decisão judicial prévia. Esses conteúdos incluem ataques à democracia, discursos de ódio, racismo, homofobia e difusão de ideologia nazista.
Antes da resolução do tribunal, as grandes empresas de tecnologia passaram a ser pressionadas por autoridades e legisladores por conta de suas práticas de moderação - o tema virou um dos principais pontos de discussão do PL das Fake News. Entre os casos que colocam práticas de moderação na mira de autoridades brasileiras estão a tentativa de golpe de 8 de janeiro e os ataques a escolas.
O tema também é ponto central de debate em diferentes países. No mesmo dia 19 de fevereiro, em que as demissões da equipe de Trust & Safety foram anunciadas no mundo, a ByteDance passou a ser investigada na União Europeia, suspeita de ter infringido a Lei de Serviços Digitais, uma nova legislação que exige das plataformas de tecnologias maiores esforços para combater conteúdo ilegal e de ameaça à segurança pública. A investigação da Comissão Europeia avalia se a plataforma da ByteDance está infringindo regras de conteúdo viciante e prejudicial, de proteção de menores, escassa transparência na publicidade e uso de dados dos usuários.
Já nos EUA, onde um projeto de lei para que o TikTok corte relações com a empresa chinesa ByteDance foi aprovado recentemente no Congresso, a plataforma também está sob escrutínio da sociedade. Em janeiro deste ano, na mesma ocasião em que anunciou investimentos para a área de Trust & Safety, Shou Chew, o CEO do TikTok, esteve ao lado de Mark Zuckerberg, CEO da Meta e outros três executivos em uma audiência no Senado americano repleta de famílias cujos filhos foram alvo de abuso infantil em suas plataformas, incluindo jovens que cometeram suicídio após serem ameaçados por predadores online. Na ocasião, Zuckerberg pediu desculpas às famílias.
Tanto as equipes de análise de dados de moderação de vídeos curtos quanto a de vídeos ao vivo (ou “lives”) foram afetadas pelas demissões da operação brasileira do TikTok, com redução de 15 funcionários para quatro em cada uma delas, totalizando ao menos 22 demissões só no setor de qualidade, de acordo com uma das fontes.
Outra fonte afirma que, no time de lives, foram realizadas de 10 a 15 demissões, de aproximadamente 35 funcionários, e que o time de líderes de garantia de qualidade para vídeos curtos foi quase todo desligado, restando apenas um profissional. A ByteDance não comentou os números.
Como funciona a moderação no TikTok
No TikTok, o processo de moderação de conteúdo é realizado em três camadas. A primeira etapa é feita automaticamente por uma inteligência artificial, que barra conteúdos potencialmente nocivos, que infrinjam direitos autorais ou os termos de uso da plataforma. Quando a IA falha em detectar algum problema (por exemplo, quando usuários camuflam o conteúdo inapropriado ou escrevem termos de forma propositalmente errada para driblar o robô), os moderadores humanos entram em ação. Em seguida, os vídeos já moderados passam por um último pente fino, em uma etapa com os analistas de qualidade, que atuam para manter o trabalho da moderação dentro de um padrão.
O último relatório de transparência da empresa, de setembro de 2023, faz menção à moderação por automação e humanos. Até setembro de 2022, os relatórios também incluíam informações detalhadas dos conteúdos extremos moderados, como suicídio, conteúdo violento e atividades sexuais.
Os funcionários da moderação ou de análise de qualidade de Trust & Safety são expostos a esses conteúdos, incluindo vídeos de pornografia, nudez infantil, violência extrema. Segundo os profissionais, desinformação só é detectada “na raça” pelos moderadores, dependendo do trabalho humano. No passado, Zuckerberg, já declarou como sistemas de IA têm dificuldades para detectar nuances no idiomas, que abre brechas para conteúdos mentirosos ou que incitam o ódio.
A ByteDance reconhece o impacto que esse tipo de conteúdo pode causar em seus moderadores e oferece programas de bem-estar e saúde mental para os funcionários da área.
Os comentários são exclusivos para assinantes do Estadão.