PUBLICIDADE

Chips alimentados por luz podem ser nova esperança para turbinar sistemas de IA

Sistemas ópticos podem aumentar a eficiência de redes neurais, mas precisa superar desafios na próxima década

PUBLICIDADE

Por Amos Zeeberg (Quanta Magazine )

A lei de Moore já é bastante rápida. Ela afirma que os chips de computador ganham o dobro de transistores a cada dois anos, aproximadamente, produzindo grandes saltos em velocidade e eficiência. Mas as demandas de computação da era do aprendizado profundo estão crescendo ainda mais rápido do que isso - em um ritmo que provavelmente não é sustentável. A Agência Internacional de Energia prevê que a inteligência artificial (IA) consumirá 10 vezes mais energia em 2026 do que em 2023, e que os data centers usarão neste ano tanta energia quanto o Japão. “O poder computacional que a IA precisa dobra a cada três meses”, diz Nick Harris, fundador e CEO da empresa de hardware de computação Lightmatter - muito mais rápido do que a lei de Moore prevê. “Isso vai quebrar empresas e economias.”

Uma das maneiras mais promissoras de avançar na área envolve o processamento de informações não com os confiáveis elétrons, que dominam a computação há mais de 50 anos, mas usando o fluxo de fótons, minúsculos pacotes de luz. Resultados recentes sugerem que, para determinadas tarefas computacionais fundamentais para a inteligência artificial moderna, os “computadores ópticos” baseados em luz podem oferecer uma vantagem.

Sistemas de IA podem ser turbinados com chips de luz Foto: Señor Salme/Quanta Magazine

O desenvolvimento da computação óptica está “abrindo caminho para avanços em campos que exigem processamento de alta velocidade e alta eficiência, como a inteligência artificial”, diz a física Natalia Berloff, da Universidade de Cambridge.

Óptica ideal

PUBLICIDADE

Em teoria, a luz oferece benefícios potenciais tentadores. Por um lado, os sinais ópticos podem transportar mais informações do que os elétricos - eles têm mais largura de banda. As frequências ópticas também são muito mais altas do que as elétricas, de modo que os sistemas ópticos podem executar mais etapas de computação em menos tempo e com menos latência.

E ainda há o problema da eficiência. Além dos custos ambientais e econômicos dos chips eletrônicos, que geram um desperdício relativamente grande, eles também funcionam tão intensamente que apenas uma pequena fração dos transistores - os minúsculos interruptores no centro de todos os computadores - pode estar ativa a qualquer momento. Os computadores ópticos poderiam, em teoria, funcionar com mais operações simultâneas, processando mais dados e usando menos energia. “Se pudéssemos aproveitar” essas vantagens, diz Gordon Wetzstein, engenheiro elétrico da Universidade Stanford, “isso abriria muitas novas possibilidades”.

Vendo as possíveis vantagens, os pesquisadores há muito tempo tentam usar a luz para IA, um campo com grandes necessidades computacionais. Nas décadas de 1980 e 1990, por exemplo, os pesquisadores usaram sistemas ópticos para criar algumas das primeiras redes neurais. Demetri Psaltis e dois colegas do Instituto de Tecnologia da Califórnia criaram um sistema inteligente de reconhecimento facial usando uma dessas primeiras redes neurais ópticas (ONNs). Eles armazenaram imagens de um sujeito - um dos pesquisadores, na verdade - como hologramas em um cristal fotorrefrativo. Os pesquisadores usaram os hologramas para treinar uma ONN, que pôde então reconhecer novas imagens do pesquisador e distingui-lo de seus colegas.

Mas a luz também tem deficiências. O mais importante é que os fótons geralmente não interagem uns com os outros, portanto, é difícil que um sinal de entrada controle outro sinal, que é a essência do que os transistores comuns fazem. Os transistores também funcionam excepcionalmente bem. Atualmente, eles são colocados em chips extremamente pequenos, produtos de décadas de melhorias incrementais.

Publicidade

Nick Harris fundou uma empresa cujos chips usam fótons em vez de elétrons  Foto: Doug Levy/Quanta Magazine

Mas, nos últimos anos, os pesquisadores descobriram um aplicativo ideal para a computação óptica: a multiplicação de matrizes.

Um pouco de matemática

O processo de multiplicação de matrizes, ou conjuntos de números, é a base de muita computação pesada. Especificamente nas redes neurais, a multiplicação de matrizes é uma etapa fundamental tanto na forma como as redes são treinadas com dados antigos quanto na forma como os novos dados são processados nas redes treinadas. E a luz pode ser um meio melhor para a multiplicação de matrizes do que a eletricidade.

Essa abordagem da computação de IA explodiu em 2017, quando um grupo liderado por Dirk Englund e Marin Soljačić do Instituto de Tecnologia de Massachusetts (MIT) descreveu como criar uma rede neural óptica construída em um chip de silício. Os pesquisadores codificaram as várias quantidades que desejavam multiplicar em feixes de luz e, em seguida, enviaram os feixes por meio de uma série de componentes que alteraram a fase do feixe - a maneira como suas ondas de luz oscilavam - com cada alteração de fase representando uma etapa de multiplicação. Ao dividir repetidamente os feixes, alterar sua fase e recombiná-los, eles puderam fazer com que a luz realizasse efetivamente a multiplicação da matriz. Na extremidade do chip, os pesquisadores colocaram fotodetectores que mediam os feixes de luz e revelavam o resultado.

O chip Passage da Lightmatter, que a empresa espera que esteja pronto em 2026, combinará hardware eletrônico com interconexões baseadas em luz  Foto: Lightmatter/Divulgação

Os pesquisadores ensinaram seu dispositivo experimental a reconhecer vogais faladas, uma tarefa de referência comum para redes neurais. Com as vantagens da luz, ele poderia fazer isso de forma mais rápida e eficiente do que um dispositivo eletrônico. Outros pesquisadores sabiam que a luz tinha o potencial de ser boa para a multiplicação de matrizes; o artigo de 2017 mostrou como colocar isso em prática.

CONTiNUA APÓS PUBLICIDADE

O estudo “catalisou um interesse maciço e renovado em ONNs”, diz Peter McMahon, especialista em fotônica da Universidade de Cornell. “Esse estudo foi muito influente”.

Ideias brilhantes

Desde aquele artigo de 2017, o campo tem apresentado melhorias constantes, pois vários pesquisadores criaram novos tipos de computadores ópticos. Englund e vários colaboradores revelaram recentemente uma nova rede óptica que eles chamam de HITOP, que combina vários avanços. O mais importante é que ela tem como objetivo aumentar o rendimento da computação com o tempo, o espaço e o comprimento de onda. Zaijun Chen, ex-pós-doutorando do MIT e atualmente na Universidade do Sul da Califórnia, disse que isso ajuda a HITOP a superar uma das desvantagens das redes neurais ópticas: É preciso muita energia para transferir dados de componentes eletrônicos para componentes ópticos e vice-versa. Mas, ao empacotar as informações em três dimensões de luz, disse Chen, isso faz com que mais dados passem pela ONN mais rapidamente e distribui o custo da energia por muitos cálculos. Isso reduz o custo por cálculo. Os pesquisadores informaram que o HITOP pode executar modelos de aprendizado de máquina 25 mil vezes maiores do que os ONNs baseados em chips anteriores.

O HITOP realiza cerca de 1 trilhão de operações por segundo, enquanto os sofisticados chips da Nvidia podem processar 300 vezes mais dados, disse Chen, que espera ampliar a tecnologia para torná-la mais competitiva. Mas a eficiência do chip óptico é convincente. “O jogo aqui é que reduzimos o custo de energia em 1.000 vezes”, diz Chen.

Publicidade

Outros grupos criaram computadores ópticos com vantagens diferentes. No ano passado, uma equipe da Universidade da Pensilvânia descreveu um novo tipo de ONN que oferece uma flexibilidade incomum. Esse sistema baseado em chip ilumina com um laser parte do semicondutor que compõe o chip eletrônico, o que altera as propriedades ópticas do semicondutor. O laser mapeia efetivamente a rota a ser seguida pelo sinal óptico e, portanto, o cálculo que ele realiza. Isso permite que os pesquisadores reconfigurem facilmente o que o sistema faz. Essa é uma grande diferença em relação à maioria dos outros sistemas baseados em chips, ópticos e elétricos, em que a rota é estabelecida cuidadosamente na planta de fabricação e é muito difícil de ser alterada.

Bhavin Shastri ajudou a desenvolver uma rede neural óptica que supera a interferência entre diferentes sinais sem fio  Foto: Queen’s University/Divulgação

“O que temos aqui é algo incrivelmente simples”, diz Tianwei Wu, o principal autor do estudo. “Podemos reprogramá-lo, alterando os padrões de laser em tempo real.” Os pesquisadores usaram o sistema para projetar uma rede neural que discriminou com sucesso os sons das vogais. A maioria dos sistemas fotônicos precisa ser treinada antes de ser construída, pois o treinamento envolve necessariamente a reconfiguração das conexões. Mas como esse sistema é facilmente reconfigurado, os pesquisadores treinaram o modelo depois que ele foi instalado no semicondutor. Agora eles planejam aumentar o tamanho do chip e codificar mais informações em diferentes cores de luz, o que deve aumentar a quantidade de dados que ele pode manipular.

É um progresso que até mesmo Psaltis, que criou o sistema de reconhecimento facial nos anos 90, considera impressionante. “Nossos sonhos mais loucos de 40 anos atrás eram muito modestos em comparação com o que realmente aconteceu.”

Primeiros raios de luz

Embora a computação óptica tenha avançado rapidamente nos últimos anos, ela ainda está longe de substituir os chips eletrônicos que operam as redes neurais fora dos laboratórios. Os artigos anunciam sistemas fotônicos que funcionam melhor do que os eletrônicos, mas eles geralmente executam modelos pequenos usando projetos de rede antigos e cargas de trabalho pequenas. E muitos dos números divulgados sobre a supremacia fotônica não contam toda a história, diz Bhavin Shastri, da Queen’s University, em Ontário. “É muito difícil fazer uma comparação com a eletrônica”, disse ele. “Por exemplo, quando eles usam lasers, eles não falam realmente sobre a energia para alimentar os lasers.”

Os sistemas de laboratório precisam ser ampliados para que possam apresentar vantagens competitivas. “Qual é o tamanho que você precisa fazer para obter uma vitória?” perguntou McMahon. A resposta: excepcionalmente grande. É por isso que ninguém consegue igualar um chip fabricado pela Nvidia, cujos chips alimentam muitos dos sistemas de IA mais avançados atualmente. Há uma lista enorme de quebra-cabeças de engenharia a serem resolvidos ao longo do caminho - problemas que a parte eletrônica resolveu ao longo de décadas. “A eletrônica está começando com uma grande vantagem”, disse McMahon.

Alguns pesquisadores acreditam que os sistemas de IA baseados em ONN terão sucesso primeiro em aplicações especializadas, nas quais oferecem vantagens exclusivas. Shastri disse que um uso promissor é neutralizar a interferência entre diferentes transmissões sem fio, como as torres de celular 5G e os altímetros de radar que ajudam os aviões a navegar. No início deste ano, Shastri e vários colegas criaram uma ONN que pode classificar diferentes transmissões e selecionar um sinal de interesse em tempo real e com um atraso de processamento de menos de 15 picossegundos (15 trilionésimos de segundo) - menos de um milésimo do tempo que um sistema eletrônico levaria, usando menos de 1/70 da energia.

Mas McMahon disse que a grande visão - uma rede neural óptica que possa superar os sistemas eletrônicos para uso geral - continua valendo a pena ser perseguida. No ano passado, seu grupo realizou simulações mostrando que, dentro de uma década, um sistema óptico suficientemente grande poderia tornar alguns modelos de IA mais de 1.000 vezes mais eficientes do que os futuros sistemas eletrônicos. “Muitas empresas estão se esforçando para obter um benefício de 1,5 vezes. Um benefício de mil vezes seria incrível”, disse ele. “Esse talvez seja um projeto de 10 anos, se for bem-sucedido.”

Publicidade

História original republicada com permissão da Quanta Magazine, uma publicação editorialmente independente apoiada pela Simons Foundation. Leia o conteúdo original em AI Needs Enormous Computing Power. Could Light-Based Chips Help?.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Comentários

Os comentários são exclusivos para assinantes do Estadão.