Durante anos, a gigante das buscas tentou - e falhou em grande parte - fazer com que os consumidores usassem telas na frente do rosto. Agora, o Google está tentando novamente.
A empresa revelou na quinta-feira, 12, uma nova versão do seu software Android - chamada Android XR - desenvolvida em conjunto com a Samsung para alimentar uma variedade de dispositivos vestíveis, desde fones de ouvido de realidade virtual até óculos inteligentes.
“Nós, como muitos outros, já fizemos algumas tentativas nesse sentido”, disse Sameer Samat, presidente do ecossistema Android do Google, em um briefing. “Acho que a visão estava correta, mas a tecnologia ainda não estava pronta.”
Embora não esteja claro se o Google planeja desenvolver seu próprio XR, ou dispositivos de “realidade aumentada” para venda aos consumidores, os primeiros produtos criados com base nesse novo software chegarão em algum momento do próximo ano, disse Samat. E liderando o grupo está um headset criado pela Samsung com o codinome “Project Moohan”, uma referência à palavra coreana para “infinito”.
Algumas facetas da experiência do Android XR podem parecer surpreendentemente familiares para qualquer pessoa que tenha experimentado o Vision Pro, da Apple.
Os usuários de headsets Android XR, como o Project Moohan, poderão folhear apresentações de slides de fotos suspensas no ar à sua frente, assistir a filmes exibidos em um cinema virtual imersivo ou executar aplicativos Android que podem ser controlados com movimentos dos olhos e gestos das mãos.
O Google nunca parou de trabalhar no XR, um termo genérico que se refere a tecnologias relacionadas, como realidade virtual, realidade aumentada e realidade mista, disse Samat.
Desta vez, no entanto, a empresa está se apoiando na IA para tornar essa nova geração de computadores faciais mais útil. Os dispositivos Android XR usados na cabeça terão o chatbot Gemini do Google incorporado em seu núcleo, permitindo que os usuários controlem seus aplicativos com comandos de conversação e gestos físicos.
“A realidade é que os teclados raramente serão uma interface para o XR, e o Gemini é crucial para permitir uma experiência simples e de qualidade”, disse o principal analista da Moor Insights, Anshel Sag, que experimentou uma versão de pré-produção do headset Moohan.
Shahram Izadi, vice-presidente de XR do Google, diz que o Gemini também será capaz de ver o que o usuário vê - sejam objetos do mundo real ou elementos digitais pairando no espaço - e poderá reagir a eles de acordo.
Em um vídeo de amostra que a empresa compartilhou com os repórteres, um par de óculos inteligentes com visores nas lentes podia ver uma ferramenta específica no campo de visão do usuário e lembrá-lo de onde ela estava.
Outros vídeos de pré-visualização mostraram esses protótipos de óculos exibindo instruções de caminhada do Google Maps enquanto o usuário percorria uma cidade e oferecendo a tradução de menus escritos em idiomas estrangeiros.
Leia também
“É notável que a Apple ainda não prometeu nenhum recurso de inteligência para o Vision Pro, e a Meta falou pouco sobre IA para seu Horizon OS”, disse Leo Gebbie, analista principal da CCS Insight. “O Google parece ter se adiantado em relação aos seus rivais em termos de trazer à tona essa abordagem.”
Apesar do otimismo, não há garantia de que a abordagem avançada de IA do Google para fones de ouvido e óculos inteligentes conquistará imediatamente os consumidores céticos. A demanda por AR e VR diminuiu até agora neste ano, de acordo com dados de remessa da empresa de pesquisa IDC, embora ela espere que o setor cresça nos próximos anos.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.
Os comentários são exclusivos para assinantes do Estadão.