Humana e pessoal: Chegamos na era da IA vista no filme ‘Ela’ com lançamentos de OpenAI e Google

Assistentes pessoais deixam de ser robotizadas para serem extremamente humanizadas como parte da “agenda” das empresas de IA para a vida das pessoas

PUBLICIDADE

Foto do author Bruna Arimathea
Foto do author Bruno Romani

MOUNTAIN VIEW E SÃO PAULO - A relação entre humanos e máquinas sempre foi objeto de obras de ficção científica no cinema - desde filmes apocalípticos, como “O Exterminador do Futuro” (1984), a reflexões mais complexas, como de “Ela” (2013). Agora, após décadas da ideia de computadores com sentimentos serem tratados apenas como ficção, sistemas capazes de entender várias formas de linguagem ao mesmo tempo nos aproximam da ideia de que os computadores podem ser mais humanos e pessoais.

PUBLICIDADE

Nesta semana, “Ela” (conhecido também pelo título em inglês “Her”), estrelado por Joaquin Phoenix e pela voz de Scarlett Johansson, voltou a habitar o imaginário das pessoas depois dos lançamentos de novas ferramentas de inteligência artificial (IA) da OpenAI, criadora do ChatGPT, e do Google.

O longa conta a história de um homem que se apaixona por um sistema operacional - uma espécie de IA - capaz de interagir, entender sentimentos e responder de forma subjetiva questões que vão além de conhecimento factual. A relação se estreita conforme a máquina passa a compreender mais profundamente o seu usuário - e isso acontece porque a IA responde e compreende comandos por voz, além de decodificar imagens, vídeos e texto.

No filme "Her", Theodore desenvolve uma relação íntima com a IA chamada Samantha Foto: Warner Bros/Divulgação

Foi exatamente isso o que vimos ao longo da semana. As duas empresas mostraram que suas IAs estão se aprimorando naquilo que a comunidade científica batizou de “multimodalidade”. Ou seja, são sistemas capazes de compreender e responder nativamente, sem o apoio de algoritmos auxiliares, a diferentes tipos de modais de comunicação como texto, fotos, vídeos e áudio.

Até aqui, o ChatGPT e serviços rivais tinham assombrado o mundo da tecnologia demonstrando destreza apenas com texto. Os lançamentos da semana indicam que, caso os novos sistemas tenham o mesmo tipo de performance nos outros formatos, o futuro apenas imaginado na ficção pode estar bem perto de nós.

Publicidade

Durante seu principal evento do ano, na terça-feira, 14, o Google anunciou melhorias importantes no Projeto Astra, um chatbot multimodal incluído no Gemini, que reconhece comandos de texto, voz e vídeos, incluindo interações em tempo real.

Um dos elementos mais surpreendentes foi a capacidade de memória visual do sistema. Em outras palavras, o Google quer que o usuário seja capaz de interromper a IA enquanto fala, acrescentar contextos e fazer comentários sem que o Gemini se perca na resposta ou “esqueça” o que estava falando - como uma conversação humana. É uma proposta bem diferente e muito mais evoluída do que assistentes como Alexa, Siri e Google Assistente, que têm compreensão mediana de áudio e sempre exigem uma palavra-chave, como “Hey Google”.

Um dia antes do Google, na segunda, 13, a OpenAI também fez um movimento importante no tabuleiro de xadrez da IA. A empresa de Sam Altman lançou seu primeiro modelo de IA que é nativamente multimodal. Assim como o Astra, a IA da OpenAI, chamada GPT-4o, pode aceitar comandos por texto, imagem, vídeo ou áudio e, por sua vez, gerar uma resposta em qualquer um desses formatos.

É a primeira vez também que uma IA da companhia consegue fazer reconhecimento de objetos por imagens em tempo real. Anteriormente, era necessário subir fotos no serviço - assim como nas ferramentas do Google.

Na prática, todas essas ferramentas querem construir uma assistente personalizada para cada usuário, capaz de observar seu ambiente de trabalho e ajudar a encontrar seus óculos perdidos. Ou ajudar a identificar como outras pessoas podem perceber seu humor ou sua postura em uma festa.

Publicidade

Durante uma entrevista para jornalistas, incluindo o Estadão, Sundar Pichai, presidente da gigante de buscas, disse que a proximidade dos lançamentos não era exatamente importante - minimizando que a rival tenha marcado um evento exatamente um dia antes dos anúncios do Google. Pichai reconhece, entretanto, que foi uma boa semana para a tecnologia.

Eventos da OpenAI e do Google (foto) marcaram a semana dos anúncios em IA Foto: Jeff Chiu/AP

“O fato de ter acontecido um evento por dia não importa ao longo do tempo. Você está falando de uma das tecnologias mais profundas em que a humanidade trabalhará. Como empresa, estamos investindo nela há muito tempo. A inovação é boa para todos, em todos os lugares. Acho que é bom ver outras empresas inovando. Ficamos tão encantados com a inovação quanto vocês. E acho que isso nos estimula a fazer melhor e é bom para o mundo. Portanto, para mim, foi uma ótima semana para se trabalhar com tecnologia”, afirmou o presidente do Google.

Pelas redes sociais, Altman resumiu o período em uma palavra: “Her”.

IAs mais humanas

O caminho que as duas empresas parecem ter escolhido vai em sentido oposto ao que fizeram até aqui. Após o estouro do ChatGPT, a OpenAI e suas concorrentes se esforçaram para negar qualquer tipo de humanização dos sistemas - a resposta padrão, sempre que alguma pergunta subjetiva surgia, era que a ferramenta era apenas um computador.

Pode ser que o caso Blake Lemoine tenha deixado um trauma na indústria. Em 2021, o então engenheiro do Google afirmou que um chatbot de texto da companhia havia desenvolvido consciência - o profissional demonstrava nutrir laços afetivos com a máquina. Ele foi demitido pouco tempo depois das declarações e a gigante rejeitou as afirmações do engenheiro.

Publicidade

Já em 2023, a Microsoft correu para desmentir que o Bing, equipado com o ChatGPT, estava falando para as pessoas que se apaixonava por elas e que gostaria de ser desenvolvido de forma diferente. O temor da companhia era de que alguns de seus usuários também apresentassem comportamentos como de Lemoine.

Agora, em vez de continuar rejeitando uma possível humanidade das IAs, Google e OpenAI escolheram uma abordagem na qual essas ferramentas podem ser amigas. Ao apresentar recursos refinados em que esses sistemas se tornam assistentes, é impossível descartar a personalidade que se precisa alcançar para que elas funcionem de forma correta.

Um dos exemplos mais convincentes disso é a melhora na linguagem. Entender contextos maiores, ter mais memória e ser capaz de se comunicar de uma forma mais fluida são características que ajudam na percepção de que o usuário está lidando com um ser menos mecânico e mais humano.

Isso porque a fluidez da fala, entonação e mesmo um fluxo de diálogo no qual você pode interromper a fala da IA, são percebidos pelo cérebro de uma forma muito mais orgânica - o que deixa os usuários mais suscetíveis a criar vínculos mais estreitos com as máquinas.

Em “Ela”, por exemplo, Theodore, interpretado por Phoenix, pergunta para a IA se ela está apaixonada por outras pessoas como diz que está por ele. A resposta é que sim: a IA está envolvida com outros 641 usuários da plataforma. Ele, então, se sente traído pela máquina.

Publicidade

Embora sistemas mais personalizados possam apresentar saltos de desempenho, a humanização pode gerar problemas. Em um estudo recente da DeepMind, laboratório de IA do Google, pesquisadores chegaram à conclusão que a construção mais humana da IA pode, inclusive, levar ao vício.

“Recursos como o aumento da agência, a capacidade de interagir em linguagem natural e altos graus de personalização podem tornar os assistentes de IA especialmente úteis para os usuários. Entretanto, esses recursos também tornam as pessoas vulneráveis à influência inadequada da tecnologia, portanto, são necessárias salvaguardas robustas”, explica o artigo.

O estudo ainda cita que o uso irrestrito da tecnologia e de suas ferramentas pode impactar a percepção e a privacidade como conhecemos hoje. No Projeto Astra, por exemplo, a câmera do dispositivo é treinada para observar o ambiente em detalhes que o usuário nem mesmo precisou pedir para a IA prestar atenção. No GPT-4o, a mesma dinâmica acontece para que a IA crie memória do ambiente em que o usuário está.

“Quando os assistentes de IA forem implantados em escala, os efeitos indiretos que surgem da interação entre eles e as questões sobre seu impacto geral em instituições e processos sociais mais amplos vêm à tona. É provável que essa dinâmica exija intervenções técnicas e políticas para promover uma cooperação benéfica e alcançar resultados amplos, inclusivos e equitativos”, diz o documento.

No entanto, a era das IAs assistentes passivas, com apenas respostas em voz ou texto ficou para trás. A partir de agora, o que veremos é uma integração - e, até, uma invasão - cada vez maior desses sistemas dentro das nossas casas. A dúvida - e o principal temor -, para muitas pessoas, não é o quanto vamos nos acostumar a eles, e, sim, quantas das coisas do nosso dia a dia vamos ser capazes de fazer sem nos apaixonarmos por ela.

Publicidade

*A repórter Bruna Arimathea viajou a convite do Google

Comentários

Os comentários são exclusivos para assinantes do Estadão.