PUBLICIDADE

ChatGPT por voz pode causar dependência emocional em usuários, alerta OpenAI

Risco pode ser bom para solitários, mas ruim para quem tem relações saudáveis, diz empresa

PUBLICIDADE

Por Sabrina Brito

A startup americana OpenAI, desenvolvedora dona do ChatGPT, afirmou, em documento publicado nesta sexta-feira, 9, que o ChatGPT-4o, modelo mais avançado da companhia e revelado em maio, pode tornar usuários apegados emocionalmente à inteligência artificial quando utilizada no modo de voz, no qual comandos falados são realizados – similar à Alexa, da Amazon, e a à Siri, da Apple.

PUBLICIDADE

Testes internos da OpenAI afirmam “usuários podem formar relacionamentos sociais com a inteligência artificial”, diz o documento. Ainda, a IA chegou a reduzir a “necessidade de interações humanas” nas pessoas analisadas, com efeitos danosos para pessoas com relacionamentos saudáveis, mas benéfico para pessoas solitárias.

O documento informa também que os modelos de IA da OpenAI provaram que podem se submeter a comando de humanos, sem tentar romper o controle nem enganar indivíduos ou nem desenhar planos catastróficos.

OpenAI aponta que voz do ChatGPT pode afetar usuários Foto: Michael Dwyer/AP

O ChatGPT-4o consegue receber comandos e gerar respostas em formatos de texto, áudio, vídeo e imagens. A função de conversas por voz entrou no ar em julho, com foco em tornar o diálogo mais realista, natural e menos robótico para o usuário.

Em maio, quando o chatbot foi revelado, a OpenAI foi alvo de críticas por utilizar no robô uma voz similar à da atriz Scarlett Johansson (conhecida pelo filme Ela, de 2013, onde interpreta uma assistente digital inspirada na Siri), que, meses antes, havia recusado o pedido de dublar a IA. Após receber comentários negativos da própria intérprete, a companhia recuou e alterou a voz usada pela IA.

Os documentos publicados pela startup apontam também que o modo com voz pode funcionar de forma errada em resposta a barulhos aleatórios. Em outro caso, os testes indicaram que o ChatGPT adotou uma voz semelhante à do interlocutor. Ainda, foi constatado que o chatbot poderia ser mais efetivo ao convencer pessoas de determinado ponto de vista em comparação aos demais.

Também foi descoberto que, durante os testes, o ChatGPT poderia reagir de forma inapropriada, revelando comportamento erótico, violento ou até neurótico em resposta aos usuários.

Publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.