Enquanto avança em seus sistemas de inteligência artificial (IA), o Google tem um grande desafio pela frente: colocar a tecnologia na dianteira do combate à desinformação em suas plataformas, principalmente no YouTube. A tarefa se torna ainda mais complexa quando isso ocorre em países que não falam inglês, já que sistemas do tipo são desenvolvidos primariamente no idioma. Na busca da empresa por melhorias, o Brasil está no foco - ao menos nas palavras de Sundar Pichai, CEO da companhia.
“O Brasil é uma de nossas prioridades (no combate à desinformação)”, disse ele ao Estadão em uma videoconferência com 11 jornalistas de diferentes países - o Estadão foi o único veículo da América Latina a participar. “Sei que tem muitas conversas e propostas legislativas sobre desinformação ocorrendo por aí neste momento. Então, vamos investir muito no Brasil”, disse Pichai.
Uma das propostas de regulação sobre o tema no País é o PL das Fake News, cujo requerimento de urgência foi rejeitado pela Câmara no começo de abril - o Google, assim como Facebook e Twitter, se opôs à proposta e argumentou que o texto não garante o combate às notícias falsas. É um aspecto que surgiu na resposta de Pichai. “Muitos dos problemas (no combate à desinformação) estão no fato de que as sociedades não conseguem chegar a um consenso sobre o tema”, disse ele.
O executivo afirmou que a companhia já fez “grandes avanços” no combate à desinformação e que sistemas de IA têm papel importante na tarefa. Ele, porém, admitiu que as plataformas precisam “fazer mais”. “Você nos verá fazendo muito mais coisas além do inglês”, afirmou - antes, ele havia citado os esforços da empresa no leste europeu por conta da Guerra na Ucrânia.
A evolução da tecnologia e das ações da gigante é necessária. Em janeiro, uma carta assinada por 80 agências de checagem de 40 países acusou o YouTube de não combater a desinformação, principalmente na América Latina, na Ásia e na África - o documento cita ataques a minorias no Brasil.
Paralelamente, o Google vem focando recursos para avançar diferentes sistemas de inteligência artificial. Parte disso foi visto durante o Google I/O, conferência anual de desenvolvedores da companhia - porém, nenhuma aplicação específica no combate à desinformação foi demonstrada.
Tons de pele
Durante o I/O, a companhia anunciou a adoção, ainda em caráter experimental, de uma nova escala de tons de pele que melhora a maneira como sistemas de IA identificam pessoas pretas. No passado, os algoritmos da companhia tiveram resultados desastrosos, como a identificação de pessoas pretas como gorilas.
Chamada de escala de Monk, por se basear no trabalho de Ellis Monk, sociólogo da Universidade Harvard, o sistema será testado no Brasil. Na chamada, Pichai comentou a importância do Brasil em projetos que envolvem tecnologia e diversidade.
“Há muito tempo o Brasil é importante para a gente, pois temos um grande número de usuários do País usando alguns de nossos principais produtos. Dada sua diversidade, o Brasil se torna ainda mais importante para testar e dar feedback em iniciativas como a escala de Monk”, disse ele.
Segundo o executivo, a escala de Monk poderá ser incorporada a diferentes produtos como buscas e reconhecimento de imagem. Indo além, especialistas acreditam que o sistema poderá ser incorporado aos algoritmos do YouTube, aos telefones Pixel e até aos carros autônomos da Waymo, empresa do segmento “irmã” do Google. A escala de Monk adota 10 tons de pele diferentes, o que torna a detecção de imagem mais precisa - a escala padrão da indústria inclui apenas seis tons.
A iniciativa também é uma tentativa de reaproximar o Google de pesquisadores focados nos aspectos éticos de IA. No final de 2020, a gigante mandou embora a pesquisadora Timnit Gebru, uma das principais especialistas do mundo na área.
Na época, Gebru afirmou que foi demitida por criticar a falta de diversidade na companhia e por lutar contra chefes que se opuseram à publicação de um artigo crítico que apontava problemas nos sistemas de IA de diferentes empresas, incluindo o próprio Google. O episódio afastou da empresa parte da comunidade acadêmica e de representantes de minorias.