A Siri, criada por Steve Jobs, está morta. Agora, é a Siri pós-Sam Altman

Assistente de inteligência artificial da Apple abandonou tecnologia antiga para se ‘atualizar’ e entrar na era do ChatGPT

PUBLICIDADE

Foto do author Guilherme Guerra

Das assistentes do mercado, a Siri, do iPhone, sempre foi a mais “burra”. A Alexa (da Amazon), o Google Assistente e a Cortana (da Microsoft) rapidamente provaram-se mais úteis e inteligentes do que a rival pioneira, lançada em 2011 como uma das últimas criações de Steve Jobs. Mas, numa reviravolta de acontecimentos nos últimos meses, a inteligência artificial da Apple parece a mais apta para sobreviver após a chegada do ChatGPT.

PUBLICIDADE

A OpenAI, fundada por Sam Altman, revolucionou o mercado de tecnologia com o ChatGPT, em novembro de 2022, impressionando usuários de todo o mundo com as capacidades de conversação fluida e de compreensão de contexto. Em vez de comandos por voz, a inteligência artificial gera conteúdos a partir de texto, como um chatbot amigável. E é capaz de gerar qualquer material: e-mails corporativos formais, poemas, contos de terror, códigos de programação, lista de compras, artigos acadêmicos. Meses depois, passou a entender e criar imagens, áudios e vídeos – algo conhecido como “multimodalidade”.

Assim, o chatbot da OpenAI desencadeou uma corrida da inteligência artificial (IA), na qual as companhias disputam a supremacia da tecnologia. A Microsoft firmou uma parceria com a startup de Altman para integrar os serviços de IA no Windows e nos aplicativos de produtividade corporativa da marca. Já o Google praticamente aposentou o Google Assistente e lançou o Gemini, um chatbot superinteligente integrado ao buscador, e-mail, Android e outros produtos. A Meta, dona do Facebook e Instagram, anunciou ferramentas para criar anúncios e publicações nas redes sociais a partir de IA, esforço batizado de Meta AI. Além disso, startups em ascensão como Anthropic e Mistral surgiram como alternativas.

Apple revelou estratégia de inteligência artificial na WWDC 2024  Foto: Guilherme Guerra/Estadão

Enquanto isso, a Siri e a Alexa permaneceram sem atualizações. As duas principais assistentes digitais do mercado ainda estão na “primeira geração”: recebem comandos diretos por voz (como definir timers, acender luzes), mas não entendem contextos ou outros formatos - e são incapazes de manter diálogos ou trazer resultados mais sofisticados.

Publicidade

Enquanto a Amazon sofre, a Apple está tentando se mexer. Em 10 de junho, durante a Worldwide Developers Conference (WWDC) 2024, a companhia do iPhone anunciou a estratégia de inteligência artificial dos dispositivos da marca. Batizada de Apple Intelligence, uma série de recursos chega aos smartphones, tablets, relógios e computadores da empresa, com geração de texto para e-mails, edição e geração de imagens, resumo de notificações e transcrição de áudios, entre outros.

Nada disso é totalmente novo. Na verdade, concorrentes como Microsoft, Google e Samsung já anunciaram funcionalidades semelhantes para serem integradas ao Windows e ao Android nos últimos meses. Muitos desses recursos da Apple vão chegar só no fim deste ano em inglês e apenas nos aparelhos mais novos – ou seja, uma parcela pequena da base de usuários. Tampouco foi anunciada uma “super IA”, aos moldes do ChatGPT e Gemini, o que levanta dúvidas sobre a estratégia de longo prazo da empresa.

Siri, da Apple, vai permitir interações por texto, como se fosse um chatbot Foto: Apple/Divulgação

Como vai ser a nova Siri

A Apple não esqueceu da Siri, é claro. Esse é o “começo de uma nova era” para a assistente digital, segundo a empresa. Mas é óbvia a influência do ChatGPT, de Sam Altman, sobre a nova versão.

Na próxima geração do sistema operacional do iPhone, o iOS 18, a Siri vai ser capaz de entender contextos nos comandos, sem exigir que o usuário refaça a pergunta anterior. “Qual a temperatura hoje?” e, depois, “E amanhã?” podem ser duas perguntas que a assistente vai conseguir responder – algo que, até então, não é possível.

Publicidade

Além disso, a nova Siri vai ser melhor integrada aos aplicativos graças ao recurso de “consciência na tela” (capaz de entender o que está exibido no display do aparelho). Com isso, a assistente vai conseguir vasculhar aplicativos do sistema para cumprir comandos. Por exemplo, mensagens e e-mails poderão ser a base para que a IA encontre números de documentos e bilhetes de passagens. E, em seguida, consiga reenviar as informações para outros usuários.

Outro ponto é que vai ser possível interagir com a Siri por comandos de texto, como um chatbot. Até hoje, a assistente obedece somente a comandos de voz habilitados pelos microfones dos aparelhos. A Apple diz que o recurso pode ser útil em momentos de discrição, como quando o usuário não quiser falar em voz alta em um lugar público.

Por fim, a Apple anunciou uma parceria inédita com a OpenAI para incluir o ChatGPT na Siri, respeitando o consentimento do usuário. A fabricante do iPhone afirma que, em casos em que a Siri não conseguir cumprir um comando, a assistente vai recorrer a soluções terceiras. Um exemplo é a busca por receitas na cozinha. A Siri vai conseguir compreender qual é o prato exibido, mas não vai ser capaz de apontar qual é a melhor receita para refazê-lo em casa. É aí que vai entrar o ChatGPT, em uma concessão rara pela empresa da maçã.

Primeiro ícone da Siri, a assistente digital da Apple lançada em 2011 Foto: Divulgação/Apple

Para o professor Eduardo Pellanda, da Pontifícia Universidade Católica do Rio Grande do Sul (PUC-RS), essas novidades vão ampliar o caráter da assistente digital da Apple, sem que a companhia tenha de refazer um produto do zero, como o Google fez com o Gemini. “A Siri não vai perder tudo o que tem até agora. Vai haver uma mescla com os recursos de IA generativa, vai ter mais contexto e ser mais competente”, explica ele.

Além disso, a integração opcional com o ChatGPT é uma forma de tornar a Siri mais inteligente, sem que a Apple se envolva na criação às pressas de uma super IA, com modelo amplo de linguagem (LLM) próprio em larga escala – o que tornaria a assistente ainda mais funcional, capaz de vasculhar a web por conta própria. Segundo a revista Fortune, a Amazon teve dificuldades em integrar as tecnologias antigas da Alexa com novos LLMs.

A Apple deve desenvolver um LLM próprio. Mas isso não é da noite para o dia

Eduardo Pellanda, professor da PUC-SP

“A Apple só abriu o sistema para o ChatGPT, porque o modelo de linguagem amplo da Apple não está pronto”, aponta Pellanda. Ele cita o fiasco do Mapas: em 2012, a companhia abandonou o aplicativo de mapas do Google, então nativo no sistema do iPhone, para lançar uma solução própria. Feito às pressas, o resultado veio com diversos erros, inclusive de geolocalização, muito aquém do rival. Demorou anos até que essas falhas fossem consertadas e o app se tornasse útil.

A Apple parece ter aprendido a lição. “Eles devem desenvolver um LLM próprio. Mas isso não é da noite para o dia”, diz o professor da PUC-RS.

Mercado de assistentes de IA em crise

A Siri como conhecemos hoje está morta. A criação de Dag Kittlaus foi lançada na App Store em fevereiro de 2010 como um aplicativo solo. O produto conquistou os usuários e logo chamou a atenção de Steve Jobs. Meses depois, foi fechada a compra por US$ 200 milhões. Em outubro de 2011, a Siri foi lançada como recurso exclusivo do iPhone 4S.

O objetivo do pai do iPhone era desenvolver uma nova interface em seus dispositivos, mais humana. Afinal de contas, falar em voz alta é mais simples do que digitar palavras em um teclado virtual. E Jobs distinguia que era uma produto de inteligência artificial, e não de buscas na internet, modelo altamente lucrativo no qual o Google se ergueu.

Assistente Alexa, da Amazon, está em 500 milhões de dispositivos pelo mundo Foto: Taba Benedicto/Estadão

A Siri possuía uma tecnologia baseada em linguagem de processamento natural (NLP, na sigla em inglês). Ela é capaz de ouvir o usuário, compreender o comando, cumpri-lo e apresentar o resultado em tela e/ou por voz. Para a época, no lançamento do iPhone 4S, em 2011, isso era inovador. E esse formato se manteve praticamente intacto até o ChatGPT, em novembro de 2022. De repente, a assistente e suas rivais não são mais suficientes. É preciso abandonar a tecnologia antiga, de NLP.

A Siri da era pós-Sam Altman precisa ser capaz de entender textos, voz e áudio, imagens como ilustrações e fotografias ou mesmo vídeos gravados ou em transmissão em tempo real. E, respeitando as legislações de privacidade, ser integrada ao sistema do iPhone, iPad, Apple Watch, Mac e demais produtos para ser ainda mais útil.

A tecnologia para tal já existe. Com pompa, a OpenAI revelou em maio passado o lançamento do ChatGPT-4o, versão turbinada do seu chatbot. De tão potente, a IA da startup foi comparada com a assistente simpática e funcional do filme Ela (2013) – cujo roteiro, aliás, amplificava os potenciais da Siri.

Publicidade

A crise das assistentes digitais de primeira geração é observada na Alexa, lançada em 2014 pela Amazon. A companhia de e-commerce tem encontrado dificuldades técnicas para incoporar o formato de processamento de linguagem natural ao de LLMs, com bilhões de dados em texto utilizados no treinamento. Se não superar essas dificuldades, a assistente pode ser engolida pelas rivais. O Google Assistente parece já ter desaparecido, enquanto a Cortana foi aposentada no ano passado, dando lugar ao Microsoft Copilot.

Não há mais restrições técnicas para concretizar a visão original da Siri

Dag Kittlus, criador da Siri

A Apple notou esse desafio, e por isso correu para adaptar a Siri e para fechar uma parceria com a OpenAI. Se a estratégia der certo, isso pode abrir espaço para que a assistente da Apple, enfim, atinja o seu potencial de ser uma interface mais simples e funcional.

“Não há mais restrições técnicas para concretizar a visão original da Siri”, afirmou o criador da assistente, Dag Kittlaus, em entrevista recente ao jornalista Mark Gurman, da Bloomberg.

Comentários

Os comentários são exclusivos para assinantes do Estadão.