O Google confirmou que está colocando o pé no freio quanto ao o uso de inteligência artificial generativa na sua ferramenta de buscas depois que erros começarem a aparecer. Nas últimas semanas, usuários que utilizaram o AI Overview, nova ferramenta de resumo por IA nas buscas, receberam respostas dizendo que deveriam usar cola para o queijo fixar melhor em uma pizza, por exemplo.
A IA só estava sendo usada nos Estados Unidos, mas usuários notaram uma diminuição na aplicação por parte da plataforma. Liz Reid, vice-presidente de pesquisas no Google, confirmou a alteração em uma publicação no blog da empresa.
“Na última semana, pessoas nas redes sociais compartilharam algumas experiências estranhas (também havia um número grande de imagens falsas). Sabemos que as pessoas confiam no Google para fornecer informações precisas, e elas nunca hesitaram em apontar erros quando se deparam com eles”, escreveu a executiva. Segunda ela, imagens que mostravam respostas sobre fumar na gravidez, por exemplo, eram falsas.
De acordo com o Google, publicações de redes sociais não serão mais usadas como fonte para a IA durante as buscas. Ainda, uma configuração de pesquisa com o recurso generativo vai poder ser desativado quando a busca envolver questões de saúde - além de alguns tópicos que apresentaram resultados insatisfatórios ou incorretos. Reid também disse que dezenas de ajustes técnicos estão sendo feitos na ferramenta.
Liz explicou no artigo que a ferramenta funciona diferente das outras inteligências generativas. “O AI Overview funciona de maneira muito diferente dos chatbots e outros produtos que as pessoas podem ter experimentado. Ele não está simplesmente gerando uma resposta baseada em dados de treinamento. O AI Overview é alimentado por um modelo de linguagem personalizada, integrado com nossos sistemas centrais de classificação na web e projetado para realizar tarefas de ‘busca’ tradicionais, como identificar resultados relevantes e de alta qualidade em nosso índice”.
Segundo a executiva, essa nuance da IA explica porque ela não alucina. Erros só aconteceriam por dois motivos: falta de informação de qualidade e dificuldade de interpretar a linguagem da web.
A postagem no blog da empresa defendia que a ferramenta foi extensamente testada, mas que nada se compara a milhões de usuários e suas perguntas sem sentido. “Quantas pedras devo comer por dia?”, por exemplo, foi uma das perguntas que viralizou após o lançamento do recurso.
Essa não é a primeira vez que o Google lança um produto de inteligência artificial em anúncios cheios de holofotes e recua em seguida. A empresa impediu usuários de usarem sua ferramenta de geração de imagem após conservadores acusarem de ser “antibranca”.
Os comentários são exclusivos para assinantes do Estadão.