IAs da OpenAI conversam entre si em nova função do ChatGPT; veja vídeo


GPT-4o permite que chatbots conversem por áudio e vídeo com usuário

Por Vinícius Harfush e Soraia Joffely

Após o lançamento do GPT-4o nesta segunda-feira, 13, a OpenAI divulgou um vídeo em seu canal do YouTube, no qual demonstra novas funções da versão mais atualizada do “cérebro” do ChatGPT. Na demonstração, o executivo e cofundador da OpenAI, Greg Borckman, utilizou dois smartphones conectados à inteligência artificial pelo aplicativo da companhia e criou uma interação entre os aparelhos por meio de áudio e vídeo.

Uma das principais atualizações trazidas pelo GPT-4o é a multimodalidade da IA, que agora aceita comandos por texto, imagem, vídeo ou áudio e gera respostas em qualquer um desses formatos.

Executivo e co-fundador da OpenAI, Greg Brockman demonstra recurso de vídeo inaugurado no ChatGPT-4o Foto: Reprodução/YouTube/OpenAI
continua após a publicidade

No vídeo, a IA descreve as cores e os objetos que aparecem no cenário da gravação captados pela câmera do smartphone, além das roupas usadas por Brockman.

“Hoje nós vamos testar algo novo e vamos deixar você falar com outra IA”, diz Brockman ao dar o comando a um dos chatbots. Na sequência, o GPT-4o concorda com a ação. “Isso parece ser um plot twist para o universo das IAs”, responde a IA.

continua após a publicidade

Em outro ponto do vídeo, uma pessoa interage com o executivo ao fundo do vídeo fazendo encenações atrás de sua cabeça. Neste momento, as IAs detalham esses movimentos, dando nome às ações realizadas pela convidada de Brockman.

Outro passo feito pelo executivo, foi colocar as duas inteligências artificiais para cantarem uma música que fale sobre o ambiente da gravação. Na ocasião, o cofundador da OpenAI pediu para alternar o tom de voz das IAs e ordenou que elas usassem uma entonação para canções.

continua após a publicidade

Uma das características trazidas pelo GPT-4o é a capacidade da IA se comunicar de forma similar a um ser humano, com um tempo de resposta por áudio em 320 milisegundos em média.

O lançamento de novas funções da tecnologia da OpenAI acontece a um dia de o Google realizar o seu principal evento do ano, o Google I/O. O evento ocorre nesta terça-feira, 14, e deve trazer novidades importantes na área.

Após o lançamento do GPT-4o nesta segunda-feira, 13, a OpenAI divulgou um vídeo em seu canal do YouTube, no qual demonstra novas funções da versão mais atualizada do “cérebro” do ChatGPT. Na demonstração, o executivo e cofundador da OpenAI, Greg Borckman, utilizou dois smartphones conectados à inteligência artificial pelo aplicativo da companhia e criou uma interação entre os aparelhos por meio de áudio e vídeo.

Uma das principais atualizações trazidas pelo GPT-4o é a multimodalidade da IA, que agora aceita comandos por texto, imagem, vídeo ou áudio e gera respostas em qualquer um desses formatos.

Executivo e co-fundador da OpenAI, Greg Brockman demonstra recurso de vídeo inaugurado no ChatGPT-4o Foto: Reprodução/YouTube/OpenAI

No vídeo, a IA descreve as cores e os objetos que aparecem no cenário da gravação captados pela câmera do smartphone, além das roupas usadas por Brockman.

“Hoje nós vamos testar algo novo e vamos deixar você falar com outra IA”, diz Brockman ao dar o comando a um dos chatbots. Na sequência, o GPT-4o concorda com a ação. “Isso parece ser um plot twist para o universo das IAs”, responde a IA.

Em outro ponto do vídeo, uma pessoa interage com o executivo ao fundo do vídeo fazendo encenações atrás de sua cabeça. Neste momento, as IAs detalham esses movimentos, dando nome às ações realizadas pela convidada de Brockman.

Outro passo feito pelo executivo, foi colocar as duas inteligências artificiais para cantarem uma música que fale sobre o ambiente da gravação. Na ocasião, o cofundador da OpenAI pediu para alternar o tom de voz das IAs e ordenou que elas usassem uma entonação para canções.

Uma das características trazidas pelo GPT-4o é a capacidade da IA se comunicar de forma similar a um ser humano, com um tempo de resposta por áudio em 320 milisegundos em média.

O lançamento de novas funções da tecnologia da OpenAI acontece a um dia de o Google realizar o seu principal evento do ano, o Google I/O. O evento ocorre nesta terça-feira, 14, e deve trazer novidades importantes na área.

Após o lançamento do GPT-4o nesta segunda-feira, 13, a OpenAI divulgou um vídeo em seu canal do YouTube, no qual demonstra novas funções da versão mais atualizada do “cérebro” do ChatGPT. Na demonstração, o executivo e cofundador da OpenAI, Greg Borckman, utilizou dois smartphones conectados à inteligência artificial pelo aplicativo da companhia e criou uma interação entre os aparelhos por meio de áudio e vídeo.

Uma das principais atualizações trazidas pelo GPT-4o é a multimodalidade da IA, que agora aceita comandos por texto, imagem, vídeo ou áudio e gera respostas em qualquer um desses formatos.

Executivo e co-fundador da OpenAI, Greg Brockman demonstra recurso de vídeo inaugurado no ChatGPT-4o Foto: Reprodução/YouTube/OpenAI

No vídeo, a IA descreve as cores e os objetos que aparecem no cenário da gravação captados pela câmera do smartphone, além das roupas usadas por Brockman.

“Hoje nós vamos testar algo novo e vamos deixar você falar com outra IA”, diz Brockman ao dar o comando a um dos chatbots. Na sequência, o GPT-4o concorda com a ação. “Isso parece ser um plot twist para o universo das IAs”, responde a IA.

Em outro ponto do vídeo, uma pessoa interage com o executivo ao fundo do vídeo fazendo encenações atrás de sua cabeça. Neste momento, as IAs detalham esses movimentos, dando nome às ações realizadas pela convidada de Brockman.

Outro passo feito pelo executivo, foi colocar as duas inteligências artificiais para cantarem uma música que fale sobre o ambiente da gravação. Na ocasião, o cofundador da OpenAI pediu para alternar o tom de voz das IAs e ordenou que elas usassem uma entonação para canções.

Uma das características trazidas pelo GPT-4o é a capacidade da IA se comunicar de forma similar a um ser humano, com um tempo de resposta por áudio em 320 milisegundos em média.

O lançamento de novas funções da tecnologia da OpenAI acontece a um dia de o Google realizar o seu principal evento do ano, o Google I/O. O evento ocorre nesta terça-feira, 14, e deve trazer novidades importantes na área.

Após o lançamento do GPT-4o nesta segunda-feira, 13, a OpenAI divulgou um vídeo em seu canal do YouTube, no qual demonstra novas funções da versão mais atualizada do “cérebro” do ChatGPT. Na demonstração, o executivo e cofundador da OpenAI, Greg Borckman, utilizou dois smartphones conectados à inteligência artificial pelo aplicativo da companhia e criou uma interação entre os aparelhos por meio de áudio e vídeo.

Uma das principais atualizações trazidas pelo GPT-4o é a multimodalidade da IA, que agora aceita comandos por texto, imagem, vídeo ou áudio e gera respostas em qualquer um desses formatos.

Executivo e co-fundador da OpenAI, Greg Brockman demonstra recurso de vídeo inaugurado no ChatGPT-4o Foto: Reprodução/YouTube/OpenAI

No vídeo, a IA descreve as cores e os objetos que aparecem no cenário da gravação captados pela câmera do smartphone, além das roupas usadas por Brockman.

“Hoje nós vamos testar algo novo e vamos deixar você falar com outra IA”, diz Brockman ao dar o comando a um dos chatbots. Na sequência, o GPT-4o concorda com a ação. “Isso parece ser um plot twist para o universo das IAs”, responde a IA.

Em outro ponto do vídeo, uma pessoa interage com o executivo ao fundo do vídeo fazendo encenações atrás de sua cabeça. Neste momento, as IAs detalham esses movimentos, dando nome às ações realizadas pela convidada de Brockman.

Outro passo feito pelo executivo, foi colocar as duas inteligências artificiais para cantarem uma música que fale sobre o ambiente da gravação. Na ocasião, o cofundador da OpenAI pediu para alternar o tom de voz das IAs e ordenou que elas usassem uma entonação para canções.

Uma das características trazidas pelo GPT-4o é a capacidade da IA se comunicar de forma similar a um ser humano, com um tempo de resposta por áudio em 320 milisegundos em média.

O lançamento de novas funções da tecnologia da OpenAI acontece a um dia de o Google realizar o seu principal evento do ano, o Google I/O. O evento ocorre nesta terça-feira, 14, e deve trazer novidades importantes na área.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.