Amazon passa a usar chip próprio em assistentes de voz e reconhecimento facial


A empresa, que até então usava chips da fabricante Nvidia, pretende tornar o processamento nos aparelhos mais rápido e barato

Por Agências
O chip da Amazon é projetado de forma personalizada para acelerar grandes volumes de tarefas de aprendizado de máquina Foto: Taba Benedicto/Estadão

A Amazon disse nesta quinta-feira, 12, que passará a usar chips próprios na assistente de voz Alexa, com objetivo de tornar o processo mais rápido e barato — até então, a empresa usava os chips da fabricante Nvidia.

Em um dispositivo como a caixa de som conectada Echo, da Amazon, quando o usuário faz uma pergunta à Alexa, a consulta é enviada a um dos centros de dados da Amazon para várias etapas de processamento. O mesmo acontece quando os aparelhos da empresa emitem uma resposta, que sai em formato de texto e deve ser traduzida em fala pelo assistente.

continua após a publicidade

Todo esse processo, que era feito com chips da Nvidia, acontecerá agora com o chip da Amazon, chamado de Inferentia. Anunciado pela primeira vez em 2018, o chip da companhia é projetado de forma personalizada para acelerar grandes volumes de tarefas de aprendizado de máquina, como tradução de texto para fala ou reconhecimento de imagens.

A empresa disse que a mudança para o chip Inferentia melhorou a latência de alguns processos da Alexa em até 25%, a um custo 30% menor.

A Amazon também disse que o Rekognition, seu serviço de reconhecimento facial baseado em nuvem, começou a usar os chips, mas não informou quais chips já havia usado antes ou quanto do processamento já mudou para seus próprios chips.

O chip da Amazon é projetado de forma personalizada para acelerar grandes volumes de tarefas de aprendizado de máquina Foto: Taba Benedicto/Estadão

A Amazon disse nesta quinta-feira, 12, que passará a usar chips próprios na assistente de voz Alexa, com objetivo de tornar o processo mais rápido e barato — até então, a empresa usava os chips da fabricante Nvidia.

Em um dispositivo como a caixa de som conectada Echo, da Amazon, quando o usuário faz uma pergunta à Alexa, a consulta é enviada a um dos centros de dados da Amazon para várias etapas de processamento. O mesmo acontece quando os aparelhos da empresa emitem uma resposta, que sai em formato de texto e deve ser traduzida em fala pelo assistente.

Todo esse processo, que era feito com chips da Nvidia, acontecerá agora com o chip da Amazon, chamado de Inferentia. Anunciado pela primeira vez em 2018, o chip da companhia é projetado de forma personalizada para acelerar grandes volumes de tarefas de aprendizado de máquina, como tradução de texto para fala ou reconhecimento de imagens.

A empresa disse que a mudança para o chip Inferentia melhorou a latência de alguns processos da Alexa em até 25%, a um custo 30% menor.

A Amazon também disse que o Rekognition, seu serviço de reconhecimento facial baseado em nuvem, começou a usar os chips, mas não informou quais chips já havia usado antes ou quanto do processamento já mudou para seus próprios chips.

O chip da Amazon é projetado de forma personalizada para acelerar grandes volumes de tarefas de aprendizado de máquina Foto: Taba Benedicto/Estadão

A Amazon disse nesta quinta-feira, 12, que passará a usar chips próprios na assistente de voz Alexa, com objetivo de tornar o processo mais rápido e barato — até então, a empresa usava os chips da fabricante Nvidia.

Em um dispositivo como a caixa de som conectada Echo, da Amazon, quando o usuário faz uma pergunta à Alexa, a consulta é enviada a um dos centros de dados da Amazon para várias etapas de processamento. O mesmo acontece quando os aparelhos da empresa emitem uma resposta, que sai em formato de texto e deve ser traduzida em fala pelo assistente.

Todo esse processo, que era feito com chips da Nvidia, acontecerá agora com o chip da Amazon, chamado de Inferentia. Anunciado pela primeira vez em 2018, o chip da companhia é projetado de forma personalizada para acelerar grandes volumes de tarefas de aprendizado de máquina, como tradução de texto para fala ou reconhecimento de imagens.

A empresa disse que a mudança para o chip Inferentia melhorou a latência de alguns processos da Alexa em até 25%, a um custo 30% menor.

A Amazon também disse que o Rekognition, seu serviço de reconhecimento facial baseado em nuvem, começou a usar os chips, mas não informou quais chips já havia usado antes ou quanto do processamento já mudou para seus próprios chips.

O chip da Amazon é projetado de forma personalizada para acelerar grandes volumes de tarefas de aprendizado de máquina Foto: Taba Benedicto/Estadão

A Amazon disse nesta quinta-feira, 12, que passará a usar chips próprios na assistente de voz Alexa, com objetivo de tornar o processo mais rápido e barato — até então, a empresa usava os chips da fabricante Nvidia.

Em um dispositivo como a caixa de som conectada Echo, da Amazon, quando o usuário faz uma pergunta à Alexa, a consulta é enviada a um dos centros de dados da Amazon para várias etapas de processamento. O mesmo acontece quando os aparelhos da empresa emitem uma resposta, que sai em formato de texto e deve ser traduzida em fala pelo assistente.

Todo esse processo, que era feito com chips da Nvidia, acontecerá agora com o chip da Amazon, chamado de Inferentia. Anunciado pela primeira vez em 2018, o chip da companhia é projetado de forma personalizada para acelerar grandes volumes de tarefas de aprendizado de máquina, como tradução de texto para fala ou reconhecimento de imagens.

A empresa disse que a mudança para o chip Inferentia melhorou a latência de alguns processos da Alexa em até 25%, a um custo 30% menor.

A Amazon também disse que o Rekognition, seu serviço de reconhecimento facial baseado em nuvem, começou a usar os chips, mas não informou quais chips já havia usado antes ou quanto do processamento já mudou para seus próprios chips.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.