iPhone e iPad poderão ser usados apenas com olhos e voz em atualização focada em acessibilidade

Além da capacidade de rastrear olhar, novo recurso poderá reduzir enjoo causado por veículos em movimento

PUBLICIDADE

Foto do author Henrique Sampaio

A Apple anunciou uma série de novos recursos de acessibilidade para seus iPhones e iPads mais recentes, em tempo para o Dia Global da Consciência sobre Acessibilidade. Entre as novidades estão o suporte a rastreamento ocular, atalhos vocais personalizáveis e uma solução para o mal-estar causado pelo uso dos dispositivos durante o movimento de veículos.

A principal novidade é a capacidade de interagir pelo sistema operacional e aplicativos dos dispositivos usando apenas a câmera frontal, sem a necessidade de hardware ou acessórios adicionais. Com o recurso ativado, os usuários só precisam olhar para a tela para mover um cursor e fixar o olhar em um item para selecioná-lo.

Além da capacidade de rastrear olhar, recurso do iOS poderá reduzir enjoo causado por veículos em movimento Foto: Daniel Teixeira/Estadão

Esse método de seleção, chamado Dwell Control, já estava disponível em outras configurações de acessibilidade da Apple, como no Mac. A ativação do recurso envolve um processo de configuração e calibração e a inteligência artificial do dispositivo trabalha para entender o olhar do usuário. Além disso, o recurso será compatível com aplicativos de terceiros desde o lançamento, pois é uma camada no sistema operacional.

Comandos por voz e recursos para o CarPlay

PUBLICIDADE

Os controles de voz também estão sendo aprimorados nos celulares e tablets da Apple. Utilizando inteligência artificial que roda no próprio dispositivo, a empresa cria modelos personalizados para cada pessoa que configura um novo atalho vocal. Os usuários podem configurar um comando para uma única palavra ou frase, e a Siri será capaz de entendê-los para executar uma determinada tarefa. Uma vez configurados, os atalhos podem ser usados para iniciar aplicativos ou executar uma série de ações definidas no aplicativo Atalhos, sem a necessidade de ativar a Siri previamente.

Outra melhoria nas interações vocais é o recurso “Ouvir por Fala Atípica”, que faz com que iPhones e iPads usem aprendizado de máquina para reconhecer padrões de fala e personalizar seu reconhecimento de voz de acordo com a maneira única de vocalização do usuário. Para desenvolver essas ferramentas, a Apple colaborou com o Projeto de Acessibilidade de Fala da Universidade de Illinois, nos EUA.

Para pessoas surdas ou com dificuldade de audição, a Apple está introduzindo respostas táteis na reprodução de música no iPhone, começando com seu próprio aplicativo Música. Quando ativada, a tecnologia háptica musical reproduzirá toques, texturas e vibrações em conjunto com o áudio, trazendo uma nova camada de sensação. Ela estará disponível como uma API para que desenvolvedores possam aumentar a acessibilidade em seus aplicativos.

A Apple também está expandindo recursos de acessibilidade para o CarPlay, o modo de uso para veículos. Controle de voz e filtros de cor estão chegando à interface, facilitando o controle de aplicativos por voz e ajudando pessoas com deficiências visuais a ver menus ou alertas. O CarPlay também receberá suporte para texto em negrito e grande, além de reconhecimento de som para ruídos como sirenes ou buzinas. Quando o sistema identificar um som desses, exibirá um alerta na parte inferior da tela para informar o usuário.

Para aqueles que sofrem de enjoo de movimento ao usar iPhone ou iPad em veículos, um novo recurso chamado Vehicle Motion Cues pode aliviar parte desse desconforto. Como o enjoo de movimento é baseado em um conflito sensorial de olhar para conteúdo estático enquanto se está em um veículo em movimentação, o novo recurso visa alinhar melhor os sentidos conflitantes por meio de pontos na tela. Quando ativado, esses pontos se alinharão nas quatro bordas da tela e balançarão em resposta ao movimento detectado.

Publicidade

Além desses recursos, a Apple está trazendo mais novidades para outros produtos, incluindo legendas em tempo real no VisionOS, um novo modo leitor no Magnifier (ferramenta que permite ampliar textos para facilitar a visualização), suporte para braile multilinha e um trackpad virtual para quem usa o Assistive Touch.

Ainda não há previsão de quando os recursos serão lançados. Com a conferência de desenvolvedores WWDC acontecendo em 10 de junho, é provável que muitas das ferramentas anunciadas hoje sejam oficialmente lançadas com a próxima versão do iOS, que deve ser anunciada no evento.

Comentários

Os comentários são exclusivos para assinantes do Estadão.