O final de 2024 parece ser um período particularmente incerto na história, e a ciência da computação teórica não é exceção. Em meio a vários avanços e novas descobertas, o campo também enfrentou suas próprias dúvidas e limitações.
Por exemplo, a inteligência artificial (IA) mais uma vez dominou o discurso popular este ano. Os pesquisadores começaram a entender o que pode estar acontecendo dentro das “caixas pretas” das redes neurais que alimentam os chatbots, como o Gemini e o ChatGPT, e a mostrar que esses sistemas realmente entendem os dados que estão manipulando e compondo. Mas também há uma sensação crescente de que o progresso da IA já começou a desacelerar.
Outras áreas da ciência da computação tiveram sucessos mais claros. Depois de décadas se escondendo, uma criatura numérica elusiva conhecida como o quinto castor ocupado finalmente se entregou. Mas, mesmo nesse caso, as notícias não são de todo boas: as buscas iniciais por seu sucessor - o sexto castor ocupado - sugerem que ele pode estar além de barreiras matemáticas intransponíveis.
O campo dos códigos de correção de erros - construções matemáticas que podem se corrigir sozinhas se ocorrer um erro - também ganhou destaque em 2024. Os pesquisadores demonstraram, pela primeira vez, que uma técnica de correção de erros essencial para os computadores quânticos realmente funciona. Mas outra descoberta mostrou que certos códigos clássicos de correção de erros são fundamentalmente ineficientes, acabando com as esperanças de versões práticas desse “fenômeno mágico”.
Grandes ‘avanços do castor’
No meio do ano, uma equipe de amadores entusiastas resolveu uma das maiores questões em aberto da ciência da computação ao encontrar o quinto castor ocupado. Batizado com o nome de um tipo de programa de computador particularmente diligente que leva muito tempo para ser executado, o problema está ligado a algumas das questões mais profundas em aberto na ciência da computação e na matemática.
O problema envolve máquinas de Turing, alguns dos dispositivos de computação mais simples possíveis, concebidos pela primeira vez por Alan Turing como um modelo para um computador geral e agora facilmente simulados online. Dependendo de suas configurações iniciais, elas podem funcionar para sempre ou parar após um determinado número de etapas. O problema do castor ocupado pergunta: Dado apenas um determinado número de regras que regem a máquina, por quanto tempo ela pode ser executada, a não ser para sempre? Os pesquisadores resolveram esse problema para máquinas com 1, 2, 3 ou 4 regras (1, 6, 21 e 107 etapas, respectivamente), mas o quinto número do “castor ocupado” os iludiu por décadas.
Ben Brubaker, redator da Quanta, narrou os esforços de uma equipe global, composta principalmente por não especialistas, para encontrar o número - 47.176.870 - e provar que ele não poderia ser maior. O problema não tem nenhuma aplicação direta, mas encontrar a solução representa uma espécie de vitória sobre a complexidade matemática esmagadora - uma vitória que as primeiras buscas pelo sexto castor ocupado sugerem que talvez nunca mais vejamos.
E em janeiro, escrevemos sobre outra equipe diversificada de não profissionais que ajudou a resolver um tipo diferente de quebra-cabeça numérico. Esse esforço se concentrou no Jogo da Vida, de John Conway, e na busca por padrões repetidos de comprimentos específicos. Ao encontrar padrões que se repetiam após 19 e 41 etapas, eles provaram que o Jogo da Vida é “omniperiódico”, ou seja, capaz de se repetir após qualquer número possível de etapas.
Vida melhor por meio de códigos
Os computadores quânticos há muito tempo seduzem os pesquisadores, mas, apesar de anos de trabalho, um computador realmente útil continua longe de ser alcançado. Isso se deve em parte à sua natureza: Os computadores quânticos exploram os caprichos da mecânica quântica, as regras que regem as interações mais minuciosas do universo, o que os torna vulneráveis a erros significativos. Há quase 30 anos, os pesquisadores mostraram que é possível combinar qubits - o equivalente quântico dos bits de um computador - de forma que eles possam tolerar erros. Mas para que isso funcione, a taxa de erro de cada qubit individual deve estar abaixo de um determinado limite mínimo. Em dezembro, uma equipe do Google anunciou que havia atingido esse nível, mostrando pela primeira vez que os códigos quânticos de correção de erros podem tornar essas máquinas exóticas possíveis (embora ainda não tão cedo).
Em fevereiro, a Quanta também abordou outro novo tipo de código quântico de correção de erros, este construído a partir de tilings aperiódicos - conjuntos de formas que se combinam de maneiras que nunca se repetem. Conforme escreveu Brubaker, a conexão é possível porque, tanto para os ladrilhos quanto para os códigos, “aprender sobre uma pequena parte de um grande sistema não revela nada sobre o sistema como um todo”.
A correção de erros quânticos não foi a única diversão deste ano - os cientistas também responderam a uma importante pergunta sobre os códigos clássicos de correção de erros que podem ser usados nos computadores que utilizamos atualmente. Os códigos mais promissores sempre foram extremamente ineficientes, e os pesquisadores se perguntaram se seria possível fazer algo melhor. Depois de mais de 20 anos, a resposta é não: simplesmente não há como contornar essa ineficiência.
Observando o Quantum
Muitas das maiores descobertas deste ano mostraram que, com as lentes da ciência da computação, até mesmo o inescrutável mundo da mecânica quântica pode se tornar um pouco mais claro. Partículas minúsculas interagem de maneiras complicadas, e ainda é difícil para os cientistas entenderem completamente um determinado sistema delas. No entanto, quatro cientistas da computação desenvolveram recentemente um novo algoritmo que pode produzir com eficiência uma descrição completa de qualquer sistema, o que é inédito na área. Combinando uma ferramenta de otimização da matemática com uma abordagem de ciência da computação conhecida como técnica de relaxamento, a equipe mostrou como gerar rapidamente o Hamiltoniano de qualquer sistema quântico - um tipo de super equação que o descreve totalmente - desde que esteja a uma temperatura constante.
A mesma equipe de pesquisadores acabou fazendo outra grande descoberta quântica ao provar que o aumento da temperatura não enfraquece apenas as interações entre partículas conhecidas como emaranhamento: Há sempre uma temperatura específica na qual o entrelaçamento desaparece completamente.
Uma outra equipe também demonstrou que um problema relacionado a esses sistemas quânticos - encontrar seu nível mínimo de energia local - pode ser relativamente fácil para um computador quântico. Isso não é apenas um progresso bem-vindo no campo da física quântica, mas também prova que realmente pode haver problemas úteis que os computadores quânticos podem resolver e que estão além do alcance das máquinas clássicas. E as complexidades da teoria quântica também podem fornecer uma nova base para a criptografia, caso a criptografia atual se desfaça sob os qubits.
Leia também
Um crescimento no entendimento sobre IA
A inteligência artificial é talvez a área mais visível - e mais incompreendida - da ciência da computação teórica. Este ano, a OpenAI, famosa pelo ChatGPT, lançou seus modelos de chatbot o1, que parecem ser capazes de surpreendentes e poderosos novos feitos de engenhosidade. Mas, apesar desse progresso, o funcionamento interno dessas ferramentas permanece obscuro, deixando espaço para violações de segurança e outras travessuras.
Os pesquisadores estão particularmente curiosos para saber se esses modelos realmente entendem o que estão dizendo ou se são apenas “papagaios estocásticos”, nas palavras de um artigo de 2021, que simplesmente repetem variações do que já ouviram antes. Uma nova pesquisa sugere que essas máquinas podem realmente entender. Quando uma equipe do Google DeepMind estudou as habilidades necessárias para que esses modelos de linguagem realizassem seus feitos extraordinários, eles concluíram que as máquinas não podem estar simplesmente regurgitando dados de treinamento. “Eles demonstram de forma convincente que podem gerar textos que combinam habilidades e tópicos de maneiras que quase certamente não ocorreram nos dados de treinamento”, disse o pioneiro em IA, Geoff Hinton, que ganhou o Prêmio Nobel de Física de 2024 por seu trabalho com aprendizado de máquina.
Na verdade, um fenômeno conhecido como grokking, no qual os modelos são treinados em excesso até o ponto de um domínio inesperado, sugere novas maneiras de entender como essas máquinas misteriosas processam as informações. Outras equipes estão usando as técnicas de complexidade computacional - um ramo da ciência da computação que estuda a dificuldade relativa de diferentes problemas - para ajudar a explicar por que os modelos de linguagem parecem se sair muito melhor quando resolvem os problemas passo a passo.
História original republicada com permissão da Quanta Magazine, uma publicação editorialmente independente apoiada pela Simons Foundation. Leia o conteúdo original em The Year in Computer Science.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.
Os comentários são exclusivos para assinantes do Estadão.