OpenAI usou trabalhadores no Quênia para aprimorar sua inteligência artificial

Empresa recorreu a uma empresa de moderação de conteúdo para impedir que inteligência artificial reproduzisse discurso de ódio

PUBLICIDADE

Foto do author Redação
Por Redação
Atualização:

A OpenAI desembolsou cerca de US$ 2 por hora para que trabalhadores do Quênia tornassem “menos tóxico” o conteúdo do ChatGPT, robô de conversas (chatbot) lançado em novembro de 2022 com respostas complexas e produção de textos sobre temas diversos. As informações são da revista Time, que detalha em reportagem como a empresa de inteligência artificial contratou pessoas de uma empresa terceirizada para moderar o conteúdo da IA.

PUBLICIDADE

Os pagamentos foram entre US$ 1,32 e US$ 2, a depender da senioridade e da performance dos trabalhadores da Sama, uma companhia de “inteligência artificial ética” de San Francisco, nos EUA, e que contrata pessoas do Quênia, Uganda e Israel. Entre os clientes da firma, estão Google, Meta e Microsoft.

O objetivo do serviço era colocar uma moderação de conteúdo humana no ChatGPT, que foi treinado a partir de centenas de bilhões de páginas da internet. Por conta do imenso volume de material recolhido, a IA poderia reproduzir discurso de ódio em conversas com o público — é aí que a OpenAI, assim como outras empresas de tecnologia, contrata uma firma para moderar o conteúdo e impedir que racismo, LGBTfobia e misoginia, entre outros discursos, fossem reproduzidos.

O contrato com a Sama teve início em novembro de 2021 e terminou em fevereiro de 2022, oito meses antes do planejado. Segundo a reportagem da Time, foram contratados cerca de 36 funcionários para categorizar os conteúdos aprendidos pela IA.

Publicidade

Em nota à Time, a OpenAI confirma a contratação de funcionários do Quênia para realizar o serviço.

“Nossa missão é garantir que a inteligência artificial beneficie toda a humanidade, e trabalhamos duro para construir um sistema de IA seguro e útil que limite o conteúdo enviesado e danoso”, disse a empresa. “Classificar e filtrar imagens e textos de ódio é um passo importante para minimizar a quantidade de conteúdo violento e sexual utilizado no treinamento da IA e para criar ferramentas que detectem esse tipo de material.”

Tudo Sobre
Comentários

Os comentários são exclusivos para assinantes do Estadão.