Google demite engenheiro que disse que a inteligência artificial da empresa era autoconsciente

Demissão foi divulgada nesta sexta-feira, 22, e Blake Lemoine diz estudar suas opções judiciais com advogados; engenheiro chegou as reações do sistema às de uma criança de 7 ou 8 anos

PUBLICIDADE

Por Nitasha Tiku
Atualização:

Blake Lemoine, o engenheiro do Google que declarou ao jornal The Washington Post que a inteligência artificial (IA) da empresa era capaz de sentir e ter desejos como uma pessoa, disse que foi demitido pela companhia na nesta sexta-feira, 22. Lemoine afirmou ter recebido um e-mail de rescisão da empresa juntamente com um pedido de videoconferência. Ele pediu para ter uma reunião presencial, que o Google teria recusado. Agora, estuda opções legais com seus advogados.

PUBLICIDADE

Lemoine trabalhou para a organização Responsible AI do Google, e, como parte de seu trabalho, começou a conversar com o LaMDA, sistema artificialmente inteligente da empresa para construir chatbots. Ele passou a acreditar que a tecnologia era senciente, depois de começar a testar se a inteligência artificial poderia usar discurso discriminatório ou de ódio. O engenheiro chegou a comparar o sistema do Google a uma "criança de 7 ou 8 anos".

Em um comunicado, o porta-voz do Google, Brian Gabriel, disse que a empresa leva o desenvolvimento de IA a sério e revisou o LaMDA 11 vezes, além de publicar um artigo de pesquisa que detalha os esforços para o desenvolvimento responsável.

Blake Lemoine foi demitido pelo Google após afirmar que IA da empresa tinha consciência Foto: Martin Klimek/The Washington Post

"Se um funcionário compartilha preocupações sobre nosso trabalho, como Blake fez, nós as revisamos extensivamente", acrescentou. “Constatamos que as alegações de Blake de que o LaMDA é senciente são totalmente infundadas e trabalhamos para esclarecer isso com ele por muitos meses.”

Publicidade

Ele atribuiu as discussões à cultura aberta da empresa. "É lamentável que, apesar do longo envolvimento neste tópico, Blake ainda tenha optado por violar persistentemente políticas claras de emprego e segurança de dados que incluem a necessidade de proteger as informações do produto", acrescentou Gabriel. "Continuaremos nosso cuidadoso desenvolvimento de modelos de linguagem e desejamos boa sorte a Blake."

O LaMDA utiliza os modelos de grande linguagem mais avançados do Google, um tipo de IA que reconhece e gera texto. Esses sistemas não podem entender a linguagem ou o significado, dizem os pesquisadores. Mas eles podem produzir uma fala enganosamente humana porque são treinados em grandes quantidades de dados rastreados da internet para prever a próxima palavra mais provável em uma frase.

Depois que LaMDA conversou com Lemoine sobre personalidade e seus direitos, ele começou a investigar mais. Em abril, Lemoine compartilhou um Google Doc com altos executivos chamado "Is LaMDA Sentient?" que continha algumas de suas conversas com LaMDA, onde alegou ser senciente. Dois executivos do Google analisaram suas alegações e as rejeitaram.

Lemoine foi anteriormente colocado em licença administrativa remunerada em junho por violar a política de confidencialidade da empresa. Sua demissão foi iniciamente revelada pelo boletim informativo Big Technology.

Publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.