Nenhuma outra inteligência artificial (IA) fez mais barulho em 2022 do que o LaMDA. Não é para menos: o modelo, divulgado pela primeira vez pelo Google em maio de 2021, levou um engenheiro da empresa a acreditar que o sistema tinha desenvolvido autoconsciência. Ao Estadão, Blake Lemoine chegou a afirmar que deletar a IA seria o mesmo que assassinato - posteriormente, ele acabou demitido.
O ex-funcionário acabou seduzido pela alta sofisticação do sistema em manter diálogos abertos - LaMDA é uma sigla para Language Model for Dialogue Applications (modelo de linguagem para aplicações de diálogos, em tradução livre). Ao contrário dos chatbots atuais, que buscam respostas superobjetivas dentro de um menu limitado de frases, o LaMDA é capaz de manter conversas que tomam caminhos mais imprevisíveis, algo mais próximo de um diálogo entre humanos.
Veja o LaMDA em ação
“O Google não é mais uma ferramenta de buscas. É um espaço de perguntas e respostas. O usuário não quer mais um documento onde vai encontrar aquilo que procura. Ele quer respostas. Certamente, o LaMDA terá papel importante nisso”, explica Anderson Soares, coordenador do Centro de Excelência em Inteligência Artificial da Universidade Federal de Goiás (UFG).
(As imagens abaixo foram geradas por IA, usando os modelos DALL-E 2, Midjourney e Stable Diffusion)
Para chegar nesse nível de profundidade, o sistema foi treinado com 2,97 bilhões de documentos, 1,12 bilhão de diálogos e 1,56 trilhão de palavras. No total, são 137 bilhões de parâmetros (representações matemáticas que identificam um padrão ou estilo de diálogo). Porém, ao contrário do GPT-3 (que é habilidoso, mas nem sempre oferece textos que fazem sentido), o LaMDA é trabalhado para oferecer respostas empáticas, específicas e interessantes - as métricas da companhia visam a melhorar resultados do tipo.
Outra diferença importante para o GPT-3 é que o LaMDA precisa buscar validação nas respostas com fontes externas - o sistema não pode fazer checagem com os dados com que foi treinado. Assim, os limites do sistema, e o seu nível de acerto, ficam em outro patamar daquilo que se conhece. “A capacidade de interagir com a tecnologia de uma maneira mais natural tem o potencial de desbloquear uma nova geração de aplicativos úteis”, afirma a gigante ao Estadão.
A capacidade de interagir com a tecnologia de uma maneira mais natural tem o potencial de desbloquear uma nova geração de aplicativos úteis
Apesar do otimismo, o Google diz não saber em quais de seus produtos específicos poderia aplicar o LaMDA. É óbvio, porém, que o sistema poderia não apenas ser usado nas buscas, como também turbinar a próxima geração de assistentes de voz. “Uma IA como essa aumenta a confiança de humanos na tecnologia”, afirma Fábio Cozman, diretor do Centro para Inteligência Artificial (C4AI) da Universidade de São Paulo (USP).
Até isso virar realidade, o Google precisa eliminar a possibilidade de respostas com viés (nas amostras de treinamento, a companhia admite que o grupo de 24 a 39 anos estavam super-representados), ou que representem perigo às pessoas - um sistema como esse, por exemplo, não pode ensinar como uma pessoa pode se ferir.
Conforme as pesquisas avançam, o Google afirma que o LaMDA tem potencial para influenciar toda uma geração de IAs, extravasando os limites da empresa. Enquanto a IA não ganha uso comercial, ela já pode ser testada por usuários. Esse é o ponto onde tudo pode dar errado, se os usuários mostrarem para a companhia que o modelo não tem serventia comercial. Ou seja: de grande ilusionista, o LaMDA pode virar um aposentado precoce.
Os comentários são exclusivos para assinantes do Estadão.