O Google revelou nesta quarta-feira, 30, novos recursos de segurança nos algoritmos de sua ferramenta de pesquisa. A empresa anunciou que vai complementar sua tecnologia de inteligência artificial (IA) para ajudar a filtrar resultados de buscas consideradas sensíveis, como violência de gênero e suícidio. A ideia, por exemplo, é evitar que pessoas que estejam pensando em tirar a própria vida encontrem na internet vias de realizar isso de forma mais eficiente.
A empresa vai utilizar os algoritmos batizados de Multitask Unified Model (MUM), lançados pela empresa há pouco mais de um ano. O MUM é um modelo de inteligência artificial para a compreensão de linguagem natural (conhecidos como NPL), que funciona de forma mais eficiente que outros algoritmos do tipo. Ele lê, interpreta e ordena comandos específicos para diversas ferramentas na empresa — em especial, seu uso é voltado para as buscas do site.
A “trava de segurança” vai funcionar em duas vertentes — ambas com impacto no resultado das buscas. Nos dois casos, o MUM vai trabalhar associado a outro modelo de processamento de linguagem do Google: o Bidirectional Encoder Representations from Transformers (BERT).
De acordo com Anne Merrit, diretora de produtos do Google, o primeiro uso da ferramenta para segurança leva em conta a vulnerabilidade de pesquisas e o impacto que elas podem ter para o usuário.
“O uso de IA ajuda nas diferentes formas em que pessoas se expressam em períodos de crise, quando elas procuram por ajuda ou informação. Pessoas que passam por esse tipo de situação precisam de informações corretas e imediatas quando recorrem à busca”, aponta Anne.
Pesquisa segura
O Google adaptou o MUM para que, ao entender uma pesquisa ligada a esses conteúdos sensíveis, o primeiro resultado seja uma fonte de apoio e informação oficial para que o usuário possa buscar orientação. Aqui no Brasil, por exemplo, a ferramenta já funciona e, para casos de pesquisas relacionadas a suicídio, recomenda diretamente o contato do Centro de Valorização da Vida (CVV) no topo da página de resultados.
A interpretação também vai além das palavras exatas do buscador: segundo a empresa, a inteligência artificial é capaz de entender o objetivo da busca mesmo que não envolva palavras chaves, como “suícidio” ou “assédio”, por exemplo. Uma busca por locais conhecidos por muitos casos de suicídio podem ser suficientes para o MUM retornar resultados de segurança. Mais importante: o algoritmo é capaz de aprender esses padrões de comportamentos em um idioma e replicar para as outras 75 línguas em que presta suporte.
Em cada país em que o recurso estiver ativo, o Google vai buscar parcerias com órgãos locais para oferecer contatos de emergência em diferentes tipos de pesquisas.
Outra ferramenta que também usa a tecnologia do MUM é o filtro de resultados sensíveis que possam estar atrelado a determinado assunto. A ideia desse recurso é utilizar mais profundamente a capacidade de interpretação da IA para resolver problemas relacionados com conteúdos explícitos e indesejados — modo, chamado Safe Search, já está ativo.
Neste recurso, o Google explora a capacidade de os resultados serem não apenas precisos, mas também livres de conteúdos explícitos — chamados pela empresa de “chocante”. Dessa forma, as buscas vão excluir resultados com nudez, aspectos sexuais, de racismo e de violência. Para contas de menores de 18 anos, essa configuração será padrão e, para todos os usuários, mesmo com o modo desativado, um filtro semelhante continuará funcionando.
A diferença em relação com o funcionamento atual das buscas, é que o MUM vai ajudar a dar contexto para a pesquisa. Isso significa que cada termo utilizado não será necessariamente uma busca exata pelo “match” com as palavras digitadas no buscador, e sim com a ideia do que o conjunto de palavras na pesquisa quer dizer. É como se você procurasse por “bala de coco” e não encontrasse respostas que vão além do doce.
Na mesma lógica, pelo padrão de segurança, o Google não vai mostrar resultados considerados sensíveis que podem se utilizar das palavras mas que não possuem relação com o interesse de busca (como a droga ecstasy, conhecida como “bala”, que entra no contexto de assuntos vulneráveis, seguindo o exemplo acima). Segundo testes da empresa, a diminuição nos chamados conteúdos explícitos e “chocantes” é de 30% quando a ferramenta é usada.
Para entender melhor o contexto de utilização de ambas as ferramentas, o MUM conta com a ajuda de dados de cada usuário, a partir das contas de e-mail vinculadas no Google. A empresa, porém, afirma que, quaisquer dados utilizados para apurar a busca são processados anonimamente.
De acordo com o Google, os recursos entrarão em funcionamento nas próximas semanas. A ideia é que eles cheguem simultaneamente em todos os países em que o MUM tem suporte de linguagem no idioma — o Brasil faz parte da lista.
Os comentários são exclusivos para assinantes do Estadão.