PUBLICIDADE

OpenAI já começou a treinar próximo super ‘cérebro’ do ChatGPT

Empresa também criou um novo comitê de segurança para lidar com os riscos da tecnologia

PUBLICIDADE

Por Cade Metz (The New York Times )

A OpenAI disse na terça-feira, 28, que começou a treinar um novo modelo de inteligência artificial (IA) que sucederá a tecnologia GPT-4 que impulsiona seu popular chatbot online, o ChatGPT.

PUBLICIDADE

A startup de São Francisco, EUA, que é uma das principais empresas de IA do mundo, disse em um post de blog que espera que o novo modelo traga “o próximo nível de recursos”, à medida que se esforça para construir uma “inteligência geral artificial”, ou IGA, uma máquina que pode fazer qualquer coisa que o cérebro humano possa fazer. O novo modelo seria um mecanismo para produtos de IA, incluindo chatbots, assistentes digitais semelhantes ao Siri da Apple, mecanismos de busca e geradores de imagens.

A OpenAI também disse que estava criando um novo Comitê de Segurança e Proteção para explorar como deveria lidar com os riscos apresentados pelo novo modelo e por tecnologias futuras.

“Embora tenhamos orgulho de criar e lançar modelos que são líderes do setor tanto em termos de recursos quanto de segurança, acolhemos um debate robusto neste momento importante”, disse a empresa.

OpenAI visa criar uma IA que rivalize com o cérebro humano, prometendo avanços em chatbots, assistentes digitais e mecanismos de busca, enquanto reforça medidas de segurança Foto: Dado Ruvic/Reuters

A OpenAI tem como objetivo fazer com que a tecnologia de IA avance mais rapidamente do que seus rivais, ao mesmo tempo em que apazigua os críticos que dizem que a tecnologia está se tornando cada vez mais perigosa, ajudando a espalhar desinformação, substituir empregos e até mesmo ameaçar a humanidade. Os especialistas discordam sobre quando as empresas de tecnologia alcançarão a inteligência artificial geral, mas companhias como a OpenAI, Google, Meta e Microsoft têm aumentado constantemente o poder das tecnologias de IA por mais de uma década, demonstrando um salto perceptível aproximadamente a cada dois ou três anos.

O GPT-4 da OpenAI, lançado em março de 2023, permite que chatbots e outros aplicativos de software respondam a perguntas, escrevam e-mails, gerem trabalhos de conclusão de curso e analisem dados. Uma versão atualizada da tecnologia, que foi revelada este mês e ainda não está amplamente disponível, também pode gerar imagens e responder a perguntas e comandos em uma voz altamente conversacional.

Dias depois que a OpenAI apresentou a versão atualizada - chamada GPT-4o - a atriz Scarlett Johansson disse que ela usava uma voz que soava “assustadoramente semelhante à minha”. Ela disse que havia recusado os esforços do executivo-chefe da OpenAI, Sam Altman, para licenciar sua voz para o produto e que havia contratado um advogado e solicitado à OpenAI que parasse de usar a voz. A empresa afirmou que a voz não era de Johansson.

Publicidade

Tecnologias como a GPT-4o aprendem suas habilidades analisando grandes quantidades de dados digitais, incluindo sons, fotos, vídeos, artigos da Wikipedia, livros e notícias. O New York Times processou a OpenAI e a Microsoft em dezembro, alegando violação de direitos autorais de conteúdo de notícias relacionadas a sistemas de IA.

O “treinamento” digital de modelos de IA pode levar meses ou até anos. Após a conclusão do treinamento, as empresas de IA normalmente passam mais alguns meses testando a tecnologia e ajustando-a para uso público.

Isso pode significar que o próximo modelo da OpenAI só chegará daqui a nove meses ou um ano ou mais.

Enquanto a OpenAI treina seu novo modelo, seu novo comitê de segurança e proteção trabalhará para aprimorar as políticas e os processos de proteção da tecnologia, informou a empresa. O comitê inclui Altman, bem como os membros do conselho da OpenAI Bret Taylor, Adam D’Angelo e Nicole Seligman. A empresa disse que as novas políticas poderiam estar em vigor em agosto ou ao final do ano.

CONTiNUA APÓS PUBLICIDADE

No início deste mês, a OpenAI disse que Ilya Sutskever, cofundador e um dos líderes de seus esforços de segurança, estava deixando a empresa. Isso causou a preocupação de que a OpenAI não estava lidando suficientemente com os perigos apresentados pela IA.

Em novembro, Sutskever juntou-se a três outros membros do conselho para remover Altman da OpenAI, dizendo que Altman não poderia mais ser confiado ao plano da empresa de criar inteligência artificial geral para o bem da humanidade. Após uma campanha de lobby dos aliados de Altman, ele foi reintegrado cinco dias depois e, desde então, reafirmou o controle sobre a empresa.

Sutskever liderou o que a OpenAI chamou de sua equipe de superalinhamento, que explorou maneiras de garantir que os futuros modelos de IA não causassem danos. Assim como outros profissionais da área, ele estava cada vez mais preocupado com o fato de a IA representar uma ameaça à humanidade.

Publicidade

Jan Leike, que dirigia a equipe de superalinhamento com Sutskever, pediu demissão da empresa este mês, deixando o futuro da equipe em dúvida.

A OpenAI incluiu sua pesquisa de segurança de longo prazo em seus esforços maiores para garantir que suas tecnologias sejam seguras. Esse trabalho será liderado por John Schulman, outro cofundador, que anteriormente chefiou a equipe que criou o ChatGPT. O novo comitê de segurança supervisionará a pesquisa de Schulman e fornecerá orientação sobre como a empresa abordará os riscos tecnológicos.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Tudo Sobre
Comentários

Os comentários são exclusivos para assinantes do Estadão.