OpenAI lança IA para criar vídeos a partir de mensagens no ChatGPT; assista


Ferramenta ainda está em teste e não está disponível para todos os usuários

Por Bruna Arimathea
Atualização:

A OpenAI lançou, nesta quinta-feira, 15, uma inteligência artificial (IA) generativa para transformar comandos escritos em vídeos. Batizada de Sora — que significa céu, em japonês — a IA consegue criar vídeos de até um minuto, simulando diferentes efeitos de captação, como câmera lenta, por exemplo. Veja exemplos aqui.

A IA, que deve ser integrada de forma semelhante ao DALL-E dentro do ChatGPT, funciona a partir de comandos escritos. De acordo com a empresa, a Sora pode entender pedidos com lugares, características, ângulos de filmagem e até lentes específicas em que a “gravação” deve ser feita. Também podem ser gerados vídeos de até 1080p de qualidade.

“Estamos ensinando a IA a entender e simular o mundo físico em movimento, com o objetivo de treinar modelos que ajudem as pessoas a resolver problemas que exijam interação no mundo real”, explicou a OpenAI no site.

continua após a publicidade

Em um dos vídeos publicados pela empresa, é possível ver um homem idoso, sentado em um café em uma imagem bastante aproximada de seu rosto. O vídeo usa imagens realistas — ou seja, sem efeitos de desenho animado, por exemplo — e dura 20 segundos. Em outro, uma mulher anda por uma rua cheia de luzes, com direito a um movimento de câmera que a acompanha enquanto ela “desfila”.

Seu navegador não suporta esse video.

O vídeo foi gerado com um comando que pedia um close-up, sentado em um café em Paris, com luz dourada profundidade de campo filme cinematográfico de 35 mm.

continua após a publicidade

Comando: Um close-up extremo de um homem de cabelos grisalhos e barba na casa dos 60 anos, ele está pensando profundamente sobre a história do universo enquanto está sentado em um café em Paris, seus olhos focam nas pessoas fora da tela enquanto elas caminham e ele fica sentado quase imóvel, ele está vestido com um paletó de lã e uma camisa de botões, Ele usa boina marrom e óculos e tem uma aparência muito professoral. No final, ele oferece um sorriso sutil de boca fechada, como se tivesse encontrado a resposta para o mistério da vida. A iluminação é muito cinematográfica, com a luz dourada e as ruas e a cidade de Paris ao fundo, profundidade de campo, filme cinematográfico de 35 mm.

Seu navegador não suporta esse video.

O vídeo foi gerado com um comando que pedia uma mulher de jaqueta de couro e vestido longo andando por uma rua de Tóquio repleta de luzes de neon brilhantes.

Comando: Uma mulher elegante caminha por uma rua de Tóquio repleta de luzes de neon brilhantes e letreiros animados da cidade. Ela usa uma jaqueta de couro preta, um vestido longo vermelho e botas pretas, e carrega uma bolsa preta. Usa óculos escuros e batom vermelho. Ela caminha com confiança e casualidade. A rua é úmida e reflexiva, criando um efeito de espelho das luzes coloridas. Muitos pedestres andam por ali.

continua após a publicidade

Mesmo realista, a primeira versão da Sora conta com alguns erros, admitidos pela própria empresa. Em alguns casos, ela pode confundir comandos direcionais como esquerda e direita, além de poder “esquecer” ações já realizadas anteriormente no vídeo.

“O modelo atual tem pontos fracos. Ele pode ter dificuldades para simular com precisão a física de uma cena complexa e pode não compreender instâncias específicas de causa e efeito. Por exemplo, uma pessoa pode dar uma mordida em um biscoito, mas, depois disso, o biscoito pode não ter uma marca de mordida”.

continua após a publicidade

Por enquanto, a ferramenta será disponibilizada apenas para especialistas em cibersegurança e para artistas visuais, cineastas e designers. A ideia é receber o feedback de profissionais que trabalham com edição e captação de vídeo, ao mesmo tempo em que identifica erros e possíveis usos problemáticos da ferramenta.

A empresa não afirmou quando a IA deve chegar aos demais usuários e se será uma ferramenta exclusiva para assinantes do ChatGPT.

A OpenAI lançou, nesta quinta-feira, 15, uma inteligência artificial (IA) generativa para transformar comandos escritos em vídeos. Batizada de Sora — que significa céu, em japonês — a IA consegue criar vídeos de até um minuto, simulando diferentes efeitos de captação, como câmera lenta, por exemplo. Veja exemplos aqui.

A IA, que deve ser integrada de forma semelhante ao DALL-E dentro do ChatGPT, funciona a partir de comandos escritos. De acordo com a empresa, a Sora pode entender pedidos com lugares, características, ângulos de filmagem e até lentes específicas em que a “gravação” deve ser feita. Também podem ser gerados vídeos de até 1080p de qualidade.

“Estamos ensinando a IA a entender e simular o mundo físico em movimento, com o objetivo de treinar modelos que ajudem as pessoas a resolver problemas que exijam interação no mundo real”, explicou a OpenAI no site.

Em um dos vídeos publicados pela empresa, é possível ver um homem idoso, sentado em um café em uma imagem bastante aproximada de seu rosto. O vídeo usa imagens realistas — ou seja, sem efeitos de desenho animado, por exemplo — e dura 20 segundos. Em outro, uma mulher anda por uma rua cheia de luzes, com direito a um movimento de câmera que a acompanha enquanto ela “desfila”.

Seu navegador não suporta esse video.

O vídeo foi gerado com um comando que pedia um close-up, sentado em um café em Paris, com luz dourada profundidade de campo filme cinematográfico de 35 mm.

Comando: Um close-up extremo de um homem de cabelos grisalhos e barba na casa dos 60 anos, ele está pensando profundamente sobre a história do universo enquanto está sentado em um café em Paris, seus olhos focam nas pessoas fora da tela enquanto elas caminham e ele fica sentado quase imóvel, ele está vestido com um paletó de lã e uma camisa de botões, Ele usa boina marrom e óculos e tem uma aparência muito professoral. No final, ele oferece um sorriso sutil de boca fechada, como se tivesse encontrado a resposta para o mistério da vida. A iluminação é muito cinematográfica, com a luz dourada e as ruas e a cidade de Paris ao fundo, profundidade de campo, filme cinematográfico de 35 mm.

Seu navegador não suporta esse video.

O vídeo foi gerado com um comando que pedia uma mulher de jaqueta de couro e vestido longo andando por uma rua de Tóquio repleta de luzes de neon brilhantes.

Comando: Uma mulher elegante caminha por uma rua de Tóquio repleta de luzes de neon brilhantes e letreiros animados da cidade. Ela usa uma jaqueta de couro preta, um vestido longo vermelho e botas pretas, e carrega uma bolsa preta. Usa óculos escuros e batom vermelho. Ela caminha com confiança e casualidade. A rua é úmida e reflexiva, criando um efeito de espelho das luzes coloridas. Muitos pedestres andam por ali.

Mesmo realista, a primeira versão da Sora conta com alguns erros, admitidos pela própria empresa. Em alguns casos, ela pode confundir comandos direcionais como esquerda e direita, além de poder “esquecer” ações já realizadas anteriormente no vídeo.

“O modelo atual tem pontos fracos. Ele pode ter dificuldades para simular com precisão a física de uma cena complexa e pode não compreender instâncias específicas de causa e efeito. Por exemplo, uma pessoa pode dar uma mordida em um biscoito, mas, depois disso, o biscoito pode não ter uma marca de mordida”.

Por enquanto, a ferramenta será disponibilizada apenas para especialistas em cibersegurança e para artistas visuais, cineastas e designers. A ideia é receber o feedback de profissionais que trabalham com edição e captação de vídeo, ao mesmo tempo em que identifica erros e possíveis usos problemáticos da ferramenta.

A empresa não afirmou quando a IA deve chegar aos demais usuários e se será uma ferramenta exclusiva para assinantes do ChatGPT.

A OpenAI lançou, nesta quinta-feira, 15, uma inteligência artificial (IA) generativa para transformar comandos escritos em vídeos. Batizada de Sora — que significa céu, em japonês — a IA consegue criar vídeos de até um minuto, simulando diferentes efeitos de captação, como câmera lenta, por exemplo. Veja exemplos aqui.

A IA, que deve ser integrada de forma semelhante ao DALL-E dentro do ChatGPT, funciona a partir de comandos escritos. De acordo com a empresa, a Sora pode entender pedidos com lugares, características, ângulos de filmagem e até lentes específicas em que a “gravação” deve ser feita. Também podem ser gerados vídeos de até 1080p de qualidade.

“Estamos ensinando a IA a entender e simular o mundo físico em movimento, com o objetivo de treinar modelos que ajudem as pessoas a resolver problemas que exijam interação no mundo real”, explicou a OpenAI no site.

Em um dos vídeos publicados pela empresa, é possível ver um homem idoso, sentado em um café em uma imagem bastante aproximada de seu rosto. O vídeo usa imagens realistas — ou seja, sem efeitos de desenho animado, por exemplo — e dura 20 segundos. Em outro, uma mulher anda por uma rua cheia de luzes, com direito a um movimento de câmera que a acompanha enquanto ela “desfila”.

Seu navegador não suporta esse video.

O vídeo foi gerado com um comando que pedia um close-up, sentado em um café em Paris, com luz dourada profundidade de campo filme cinematográfico de 35 mm.

Comando: Um close-up extremo de um homem de cabelos grisalhos e barba na casa dos 60 anos, ele está pensando profundamente sobre a história do universo enquanto está sentado em um café em Paris, seus olhos focam nas pessoas fora da tela enquanto elas caminham e ele fica sentado quase imóvel, ele está vestido com um paletó de lã e uma camisa de botões, Ele usa boina marrom e óculos e tem uma aparência muito professoral. No final, ele oferece um sorriso sutil de boca fechada, como se tivesse encontrado a resposta para o mistério da vida. A iluminação é muito cinematográfica, com a luz dourada e as ruas e a cidade de Paris ao fundo, profundidade de campo, filme cinematográfico de 35 mm.

Seu navegador não suporta esse video.

O vídeo foi gerado com um comando que pedia uma mulher de jaqueta de couro e vestido longo andando por uma rua de Tóquio repleta de luzes de neon brilhantes.

Comando: Uma mulher elegante caminha por uma rua de Tóquio repleta de luzes de neon brilhantes e letreiros animados da cidade. Ela usa uma jaqueta de couro preta, um vestido longo vermelho e botas pretas, e carrega uma bolsa preta. Usa óculos escuros e batom vermelho. Ela caminha com confiança e casualidade. A rua é úmida e reflexiva, criando um efeito de espelho das luzes coloridas. Muitos pedestres andam por ali.

Mesmo realista, a primeira versão da Sora conta com alguns erros, admitidos pela própria empresa. Em alguns casos, ela pode confundir comandos direcionais como esquerda e direita, além de poder “esquecer” ações já realizadas anteriormente no vídeo.

“O modelo atual tem pontos fracos. Ele pode ter dificuldades para simular com precisão a física de uma cena complexa e pode não compreender instâncias específicas de causa e efeito. Por exemplo, uma pessoa pode dar uma mordida em um biscoito, mas, depois disso, o biscoito pode não ter uma marca de mordida”.

Por enquanto, a ferramenta será disponibilizada apenas para especialistas em cibersegurança e para artistas visuais, cineastas e designers. A ideia é receber o feedback de profissionais que trabalham com edição e captação de vídeo, ao mesmo tempo em que identifica erros e possíveis usos problemáticos da ferramenta.

A empresa não afirmou quando a IA deve chegar aos demais usuários e se será uma ferramenta exclusiva para assinantes do ChatGPT.

A OpenAI lançou, nesta quinta-feira, 15, uma inteligência artificial (IA) generativa para transformar comandos escritos em vídeos. Batizada de Sora — que significa céu, em japonês — a IA consegue criar vídeos de até um minuto, simulando diferentes efeitos de captação, como câmera lenta, por exemplo. Veja exemplos aqui.

A IA, que deve ser integrada de forma semelhante ao DALL-E dentro do ChatGPT, funciona a partir de comandos escritos. De acordo com a empresa, a Sora pode entender pedidos com lugares, características, ângulos de filmagem e até lentes específicas em que a “gravação” deve ser feita. Também podem ser gerados vídeos de até 1080p de qualidade.

“Estamos ensinando a IA a entender e simular o mundo físico em movimento, com o objetivo de treinar modelos que ajudem as pessoas a resolver problemas que exijam interação no mundo real”, explicou a OpenAI no site.

Em um dos vídeos publicados pela empresa, é possível ver um homem idoso, sentado em um café em uma imagem bastante aproximada de seu rosto. O vídeo usa imagens realistas — ou seja, sem efeitos de desenho animado, por exemplo — e dura 20 segundos. Em outro, uma mulher anda por uma rua cheia de luzes, com direito a um movimento de câmera que a acompanha enquanto ela “desfila”.

Seu navegador não suporta esse video.

O vídeo foi gerado com um comando que pedia um close-up, sentado em um café em Paris, com luz dourada profundidade de campo filme cinematográfico de 35 mm.

Comando: Um close-up extremo de um homem de cabelos grisalhos e barba na casa dos 60 anos, ele está pensando profundamente sobre a história do universo enquanto está sentado em um café em Paris, seus olhos focam nas pessoas fora da tela enquanto elas caminham e ele fica sentado quase imóvel, ele está vestido com um paletó de lã e uma camisa de botões, Ele usa boina marrom e óculos e tem uma aparência muito professoral. No final, ele oferece um sorriso sutil de boca fechada, como se tivesse encontrado a resposta para o mistério da vida. A iluminação é muito cinematográfica, com a luz dourada e as ruas e a cidade de Paris ao fundo, profundidade de campo, filme cinematográfico de 35 mm.

Seu navegador não suporta esse video.

O vídeo foi gerado com um comando que pedia uma mulher de jaqueta de couro e vestido longo andando por uma rua de Tóquio repleta de luzes de neon brilhantes.

Comando: Uma mulher elegante caminha por uma rua de Tóquio repleta de luzes de neon brilhantes e letreiros animados da cidade. Ela usa uma jaqueta de couro preta, um vestido longo vermelho e botas pretas, e carrega uma bolsa preta. Usa óculos escuros e batom vermelho. Ela caminha com confiança e casualidade. A rua é úmida e reflexiva, criando um efeito de espelho das luzes coloridas. Muitos pedestres andam por ali.

Mesmo realista, a primeira versão da Sora conta com alguns erros, admitidos pela própria empresa. Em alguns casos, ela pode confundir comandos direcionais como esquerda e direita, além de poder “esquecer” ações já realizadas anteriormente no vídeo.

“O modelo atual tem pontos fracos. Ele pode ter dificuldades para simular com precisão a física de uma cena complexa e pode não compreender instâncias específicas de causa e efeito. Por exemplo, uma pessoa pode dar uma mordida em um biscoito, mas, depois disso, o biscoito pode não ter uma marca de mordida”.

Por enquanto, a ferramenta será disponibilizada apenas para especialistas em cibersegurança e para artistas visuais, cineastas e designers. A ideia é receber o feedback de profissionais que trabalham com edição e captação de vídeo, ao mesmo tempo em que identifica erros e possíveis usos problemáticos da ferramenta.

A empresa não afirmou quando a IA deve chegar aos demais usuários e se será uma ferramenta exclusiva para assinantes do ChatGPT.

A OpenAI lançou, nesta quinta-feira, 15, uma inteligência artificial (IA) generativa para transformar comandos escritos em vídeos. Batizada de Sora — que significa céu, em japonês — a IA consegue criar vídeos de até um minuto, simulando diferentes efeitos de captação, como câmera lenta, por exemplo. Veja exemplos aqui.

A IA, que deve ser integrada de forma semelhante ao DALL-E dentro do ChatGPT, funciona a partir de comandos escritos. De acordo com a empresa, a Sora pode entender pedidos com lugares, características, ângulos de filmagem e até lentes específicas em que a “gravação” deve ser feita. Também podem ser gerados vídeos de até 1080p de qualidade.

“Estamos ensinando a IA a entender e simular o mundo físico em movimento, com o objetivo de treinar modelos que ajudem as pessoas a resolver problemas que exijam interação no mundo real”, explicou a OpenAI no site.

Em um dos vídeos publicados pela empresa, é possível ver um homem idoso, sentado em um café em uma imagem bastante aproximada de seu rosto. O vídeo usa imagens realistas — ou seja, sem efeitos de desenho animado, por exemplo — e dura 20 segundos. Em outro, uma mulher anda por uma rua cheia de luzes, com direito a um movimento de câmera que a acompanha enquanto ela “desfila”.

Seu navegador não suporta esse video.

O vídeo foi gerado com um comando que pedia um close-up, sentado em um café em Paris, com luz dourada profundidade de campo filme cinematográfico de 35 mm.

Comando: Um close-up extremo de um homem de cabelos grisalhos e barba na casa dos 60 anos, ele está pensando profundamente sobre a história do universo enquanto está sentado em um café em Paris, seus olhos focam nas pessoas fora da tela enquanto elas caminham e ele fica sentado quase imóvel, ele está vestido com um paletó de lã e uma camisa de botões, Ele usa boina marrom e óculos e tem uma aparência muito professoral. No final, ele oferece um sorriso sutil de boca fechada, como se tivesse encontrado a resposta para o mistério da vida. A iluminação é muito cinematográfica, com a luz dourada e as ruas e a cidade de Paris ao fundo, profundidade de campo, filme cinematográfico de 35 mm.

Seu navegador não suporta esse video.

O vídeo foi gerado com um comando que pedia uma mulher de jaqueta de couro e vestido longo andando por uma rua de Tóquio repleta de luzes de neon brilhantes.

Comando: Uma mulher elegante caminha por uma rua de Tóquio repleta de luzes de neon brilhantes e letreiros animados da cidade. Ela usa uma jaqueta de couro preta, um vestido longo vermelho e botas pretas, e carrega uma bolsa preta. Usa óculos escuros e batom vermelho. Ela caminha com confiança e casualidade. A rua é úmida e reflexiva, criando um efeito de espelho das luzes coloridas. Muitos pedestres andam por ali.

Mesmo realista, a primeira versão da Sora conta com alguns erros, admitidos pela própria empresa. Em alguns casos, ela pode confundir comandos direcionais como esquerda e direita, além de poder “esquecer” ações já realizadas anteriormente no vídeo.

“O modelo atual tem pontos fracos. Ele pode ter dificuldades para simular com precisão a física de uma cena complexa e pode não compreender instâncias específicas de causa e efeito. Por exemplo, uma pessoa pode dar uma mordida em um biscoito, mas, depois disso, o biscoito pode não ter uma marca de mordida”.

Por enquanto, a ferramenta será disponibilizada apenas para especialistas em cibersegurança e para artistas visuais, cineastas e designers. A ideia é receber o feedback de profissionais que trabalham com edição e captação de vídeo, ao mesmo tempo em que identifica erros e possíveis usos problemáticos da ferramenta.

A empresa não afirmou quando a IA deve chegar aos demais usuários e se será uma ferramenta exclusiva para assinantes do ChatGPT.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.