A inteligência artificial (IA) tem se tornado cada vez mais presente em nossas vidas, desde os assistentes virtuais em nossos smartphones até os algoritmos que recomendam produtos e serviços. Mas por trás dessa revolução tecnológica estão mentes brilhantes que dedicaram suas vidas a desvendar os segredos da inteligência humana e a construir máquinas capazes de aprender, raciocinar e interagir com o mundo.
A IA está presente até mesmo no Nobel de Química. O prêmio foi concedido a três cientistas que utilizaram a inteligência artificial para desvendar os segredos das proteínas. David Baker, da Universidade de Washington (EUA), e Demis Hassabis e John M. Jumper, da Google DeepMind (Reino Unido) foram escolhidos por suas contribuições inovadoras que revolucionaram a bioquímica e abriram caminho para avanços científicos e médicos.
Hassabis e Jumper, da Google DeepMind, desenvolveram o AlphaFold 2, um programa computacional que utiliza IA para prever a estrutura de proteínas com alta precisão. Essa ferramenta já permitiu a previsão da estrutura de mais de 200 milhões de proteínas conhecidas, acelerando significativamente as pesquisas em diversas áreas da biologia e da medicina.
Baker, por sua vez, desenvolveu o software Rosetta, que permite não apenas prever a estrutura de proteínas, mas também criar novas proteínas com funções específicas. Essa capacidade de “construir” proteínas abre caminho para o desenvolvimento de novos medicamentos, materiais e tecnologias com aplicações em diversas áreas, desde a saúde até a indústria.
Mas o caminho para chegar aqui. O campo da IA existe desde os anos 50 e foi construído por muitos cientistas, alguns de destaque fundamental para o avanço do campo. De Alan Turing, o pai da computação moderna, a Fei-Fei Li, a “madrinha da IA”, essas personalidades desafiaram os limites do conhecimento e moldaram o futuro da inteligência artificial. Conheça os 10 dos maiores pesquisadores de IA da história.
Leia também
Alan Turing (1912 - 1954)
Alan Mathison Turing, um nome que ecoa pelos corredores da história da computação, foi muito mais que um matemático brilhante. Visionário, à frente de seu tempo, ele desvendou códigos nazistas, lançou as bases para a inteligência artificial e desafiou os limites da própria mente humana.
Vindo ao mundo em Londres, 23 de junho de 1912, Turing desde cedo exibiu uma mente fascinada por padrões e lógica. Em Sherborne School, seu talento para a matemática já era evidente, mas foi em King’s College, Cambridge, que floresceu. Ali, graduou-se em matemática com honras, demonstrando a genialidade que o marcaria para sempre.
Em 1936, Turing publicou “On Computable Numbers”, um artigo que revolucionaria a computação. Nele, propôs a “Máquina de Turing”, um dispositivo teórico capaz de executar qualquer algoritmo, a base lógica para os computadores modernos. Essa máquina, que existia apenas no papel, continha a semente da era digital.
Com a eclosão da Segunda Guerra Mundial, Turing foi recrutado para Bletchley Park, centro de decodificação britânico. Lá, liderou a equipe que decifrou o Enigma, máquina de criptografia nazista considerada inquebrável. Essa façanha encurtou a guerra, salvando incontáveis vidas, mas permaneceu secreta por décadas.
Após a guerra, Turing voltou-se para a inteligência artificial. Em 1950, propôs o “Teste de Turing”, uma forma de avaliar se uma máquina pode exibir comportamento inteligente indistinguível do humano. Esse teste, ainda hoje debatido, é um marco na filosofia da IA.
Apesar de suas contribuições vitais, Turing foi vítima da intolerância de sua época. Em 1952, condenado por “indecência grave” devido à sua homossexualidade, foi castrado quimicamente. Dois anos depois, em 7 de junho de 1954, morreu por envenenamento por cianeto, um provável suicídio.
Somente décadas após sua morte, Turing foi reconhecido como herói de guerra e pioneiro da computação. Em 2009, o governo britânico emitiu um pedido oficial de desculpas por sua perseguição. Hoje, Turing é considerado um dos maiores cientistas do século 20.
John McCarthy (1927-2011)
Em uma era dominada por algoritmos, aprendizado de máquina e robôs inteligentes, o legado deixado por John McCarthy, o cientista da computação que não apenas cunhou o termo “Inteligência Artificial”, mas dedicou sua vida a torná-la realidade é essencial ao falarmos do termo.
Nascido em Boston, EUA, em 4 de setembro de 1927, John McCarthy demonstrou desde cedo uma aptidão excepcional para a matemática e a lógica. Autodidata em matemática avançada, ele ingressou no California Institute of Technology (Caltech) aos 16 anos, formando-se em 1948. Seu fascínio pelo funcionamento da mente humana o levou a buscar respostas na então nascente ciência da computação.
Em 1955, McCarthy, juntamente com outros pioneiros como Marvin Minsky, Claude Shannon e Nathaniel Rochester, organizou a Conferência de Dartmouth, um marco histórico que reuniu mentes brilhantes para discutir a possibilidade de criar máquinas inteligentes. Foi nesse evento que McCarthy cunhou o termo “Inteligência Artificial”, definindo-a como “a ciência e engenharia de produzir máquinas inteligentes”.
McCarthy não se limitou a teorizar sobre a IA. Ele também desenvolveu ferramentas para torná-la realidade. Em 1958, criou a linguagem de programação LISP (LISt Processor), especialmente projetada para manipular símbolos e listas, tornando-se a linguagem preferida para a pesquisa em IA por décadas.
Além da LISP, McCarthy fez contribuições significativas para o desenvolvimento do time-sharing, um sistema que permite que vários usuários compartilhem o mesmo computador simultaneamente, e para a lógica matemática, criando a lógica circumscription, uma forma de representar conhecimento incompleto. Ele morreu em 24 de outubro de 2011, aos 84 anos, deixando um legado duradouro na ciência da computação.
Marvin Minsky (1927-2016)
Marvin Minsky foi um cientista que não apenas sonhou com máquinas pensantes, mas dedicou sua vida a desvendar os segredos da cognição e a construir as bases para a IA moderna. Nascido em Nova York, em 9 de agosto de 1927, Marvin Lee Minsky demonstrou desde cedo uma curiosidade pelo funcionamento da mente humana.
Após servir na Marinha durante a Segunda Guerra Mundial, ele se formou em matemática pela Universidade Harvard em 1950 e obteve seu doutorado em matemática pela Universidade Princeton em 1954. Minsky se dedicou ao estudo da inteligência artificial, buscando compreender como o cérebro humano processa informações, aprende e resolve problemas. Ele acreditava que a chave para criar máquinas inteligentes residia em desvendar os mecanismos da cognição humana.
Em 1959, Minsky cofundou o Laboratório de Inteligência Artificial do MIT, um dos centros de pesquisa mais importantes do mundo em IA. No local, ele liderou pesquisas pioneiras em áreas como redes neurais, robótica, visão computacional e representação do conhecimento.
Minsky desenvolveu a teoria da “sociedade da mente”, que propõe que a inteligência humana emerge da interação de múltiplos agentes mentais especializados. Ele também construiu alguns dos primeiros robôs inteligentes, como o braço mecânico com sensores táteis e a tartaruga mecânica que explorava o ambiente.
Ele também foi foi autor de livros influentes como “Perceptrons” (1969), que explorava os limites das redes neurais, e “The Society of Mind” (1985), que apresentava sua teoria sobre a arquitetura da mente humana. Marvin Minsky faleceu em Boston, em 24 de janeiro de 2016, aos 88 anos, deixando um legado duradouro na ciência da computação e na inteligência artificial.
Raj Reddy (1937)
Raj Reddy, foi um dos pioneiros da IA que dedicou sua carreira a construir pontes entre humanos e máquinas. Nascido em 1937 em Katipadu, Índia, ele graduou-se em engenharia civil na Universidade de Madras, depois se mudando para a Austrália, onde obteve seu mestrado na Universidade de New South Wales. Em 1966, Reddy concluiu seu doutorado em ciência da computação na Universidade Stanford, nos Estados Unidos, dando início a uma carreira brilhante na área de inteligência artificial.
Ele foi uma das primeiras pessoas a investir no desenvolvimento de sistemas de reconhecimento de fala, que permitem que computadores compreendam a linguagem humana. O pesquisador liderou estudos na Universidade Carnegie Mellon, criando sistemas capazes de transcrever a fala em texto com precisão cada vez maior.
Além do reconhecimento de fala, Reddy também se dedicou à tradução automática, buscando desenvolver sistemas que pudessem traduzir idiomas de forma rápida e precisa. Seu trabalho visionário abriu caminho para a comunicação global sem barreiras linguísticas, facilitando o intercâmbio de informações e culturas.
Reddy também fez contribuições significativas para a área de visão computacional, que permite que computadores “vejam” e interpretem imagens. Ele desenvolveu algoritmos e sistemas que permitem que robôs naveguem em ambientes complexos, reconheçam objetos e interajam com o mundo físico de forma autônoma.
Ele também se dedicou a projetos com impacto social, utilizando a tecnologia para promover a educação e o desenvolvimento em países em desenvolvimento. Ele fundou o Instituto de Robótica da Universidade Carnegie Mellon e liderou iniciativas para levar a tecnologia da informação para comunidades carentes. O pesquisador ainda está vivo, com 87 anos de idade.
Terry Winograd (1946)
Nascido em 1946, nos Estados Unidos, Terry Allen Winograd graduou-se em matemática pelo Colorado College em 1966, se voltando para a ciência da computação e obtendo seu doutorado no MIT em 1970. Sua tese, intitulada “Procedimentos como Representação para Dados em um Programa de Computador para Entender a Linguagem Natural”, já revelava seu interesse profundo pela intersecção entre linguagem e inteligência artificial.
No início dos anos 70, Winograd desenvolveu o SHRDLU, um programa de computador que ficou famoso por sua capacidade de compreender e responder a comandos em linguagem natural dentro de um mundo virtual limitado, composto por blocos coloridos. SHRDLU podia mover objetos, responder a perguntas sobre o ambiente e até mesmo planejar ações, demonstrando um nível de compreensão linguística surpreendente para a época.
Apesar do sucesso de SHRDLU, Winograd percebeu as limitações da abordagem simbólica da IA, que se baseava em representar o conhecimento através de símbolos e regras. Ele argumentou que a verdadeira inteligência humana ia além da manipulação de símbolos, envolvendo aspectos como contexto, intencionalidade e compreensão do mundo real.
Essa crítica, expressa em seu livro “Understanding Computers and Cognition: A New Foundation for Design” (1986), marcou uma virada em sua carreira. Winograd se voltou para o estudo da interação humano-computador, buscando desenvolver sistemas que fossem mais intuitivos, acessíveis e integrados à experiência humana.
Winograd se tornou um defensor de uma abordagem mais humanista da tecnologia, enfatizando a importância do design centrado no usuário e da consideração dos impactos sociais e éticos da IA. Ele atualmente leciona na Universidade de Stanford aos 78 anos.
Geoffrey Hinton (1947)
Geoffrey Hinton é um dos nomes mais fortes quando se fala de inteligência artificial. Considerado um dos “padrinhos” da IA, ele dedicou sua carreira a desvendar os segredos do aprendizado de máquina, tanto que ganhou o Prêmio Nobel de Física em 2024.
Nascido em Wimbledon, Inglaterra, em 6 de dezembro de 1947, Geoffrey Everest Hinton herdou uma linhagem científica notável. Seu trisavô foi o lógico George Boole, cujo trabalho em álgebra booleana é fundamental para a computação moderna. Após graduar-se em psicologia experimental pela Universidade de Cambridge em 1970, Hinton obteve seu doutorado em inteligência artificial pela Universidade de Edimburgo em 1978.
Hinton sempre se interessou por como o cérebro humano aprende e processa informações. Ele acreditava que a chave para criar máquinas inteligentes residia em simular os mecanismos de aprendizado do cérebro, e não em programá-las com regras e conhecimentos pré-definidos.
O pesquisador foi um dos pioneiros no estudo de redes neurais artificiais, sistemas computacionais inspirados na estrutura do cérebro humano. Nos anos 80, quando a pesquisa em redes neurais era vista com ceticismo, Hinton persistiu em sua crença de que essa era a chave para o desenvolvimento da inteligência artificial.
Ele fez contribuições fundamentais para o desenvolvimento do algoritmo de retropropagação, uma técnica que permite que as redes neurais aprendam com seus erros e melhorem seu desempenho ao longo do tempo. Hinton também explorou o conceito de “aprendizado profundo”, utilizando redes neurais com múltiplas camadas para processar informações complexas.
Em 2018, Hinton e outros dois colaboradores, Yan LeCun e Yoshua Bengio, de longa data receberam o prêmio Turing, frequentemente chamado de “Nobel da computação”, por seu trabalho em redes neurais.
Já em maio de 2023, Hinton pediu demissão do Google e, em entrevista ao jornal americano The New York Times, denunciou o perigo das novas tecnologias em desenvolvimento, que ele mesmo ajudou a criar. Neste ano, conquistou o Nobel de Física.
Douglas Lenat (1950-2023)
Douglas Lenat se destacou como um dos pesquisadores que não procurava que a IA apenas processasse informações, mas compreendesse o mundo de forma profunda e significativa, assim como os humanos.
Nascido na Filadélfia, EUA, em 1950, Douglas Bruce Lenat demonstrou desde cedo uma paixão por desvendar os segredos da inteligência. Graduado em matemática e física pela Universidade da Pensilvânia em 1972, ele obteve seu doutorado em ciência da computação pela Universidade Stanford em 1976, com uma tese sobre aprendizado de máquina e descoberta científica.
Lenat ganhou notoriedade no mundo da IA com o desenvolvimento do programa AM (Automated Mathematician), um sistema que, a partir de conceitos básicos de matemática, era capaz de gerar novos conceitos e conjecturas, simulando o processo de descoberta matemática. AM demonstrou o potencial da IA para a criatividade e a exploração de novos conhecimentos.
Inspirado pelo sucesso de AM, Lenat embarcou em um projeto ainda mais ambicioso: construir o Cyc (abreviação de “encyclopedia”), uma base de dados de conhecimento de senso comum que visa representar o conhecimento humano de forma compreensível para as máquinas. Cyc, iniciado em 1984, é um projeto de longo prazo que continua a ser desenvolvido até hoje, com o objetivo de criar uma IA verdadeiramente “sábia”. O pesquisador morreu em 2023.
Noam Shazeer (1975)
Nascido em 1975, nos Estados Unidos, Noam Shazeer trilhou um caminho de excelência acadêmica e inovação tecnológica. Graduado em matemática e ciência da computação pelo MIT, ele obteve seu doutorado em ciência da computação pela Universidade da Pensilvânia em 2009, com uma tese sobre modelos de linguagem para tradução automática.
Shazeer iniciou sua trajetória no Google em 2000, onde trabalhou por mais de 17 anos, deixando sua marca em projetos como o aprimoramento do corretor ortográfico do buscador e o desenvolvimento de modelos de linguagem avançados. Mas sua busca por uma IA conversacional mais poderosa o levou a trilhar novos caminhos.
Em 2021, Shazeer, juntamente com o brasileiro Daniel de Freitas, fundou a Character.AI, uma startup que desenvolve chatbots capazes de interagir com humanos de forma natural e personalizada, assumindo diferentes personas e estilos de conversação
Seus chatbots na Character.AI exploram as nuances da conversação humana, permitindo que os usuários interajam com personagens históricos, figuras fictícias e até mesmo versões personalizadas de si mesmos. Essa abordagem inovadora abre caminho para novas formas de comunicação e interação com a IA. O pesquisador.
Shazeer é um dos autores do artigo “Attention Is All You Need” (2017), que apresentou ao mundo a arquitetura Transformer, um modelo de rede neural que revolucionou o processamento de linguagem natural. O Transformer permitiu a criação de sistemas de IA mais eficientes e sofisticados, capazes de gerar textos coerentes, traduzir idiomas com precisão e responder a perguntas complexas.
Após 3 anos na Character.Ai o Google desembolsou US$ 2,7 bilhões para recontratá-lo um dos principais A contratação faz parte de um plano ambicioso da empresa para impulsionar o desenvolvimento de ferramentas de IA, especialmente o projeto Gemini, que visa competir com o ChatGPT da OpenAI.
Demis Hassabis (1976)
Demis Hassabis surge como um nome central quando se fala de inteligência artificial. Nascido em Londres, em 27 de julho de 1976, Hassabis demonstrou desde cedo ser uma mente brilhante. Prodígio do xadrez, ele alcançou o nível de mestre aos 13 anos, competindo em torneios internacionais. Essa paixão por jogos estratégicos o levou a se graduar em ciência da computação pela Universidade de Cambridge em 1997, e a fundar a Elixir Studios, uma empresa de videogames, onde desenvolveu jogos aclamados pela crítica.
Mas ele tinha um objetivo maior: compreender a inteligência humana e replicá-la em máquinas. Em 2005, ele iniciou um doutorado em neurociência cognitiva na University College London, investigando os mecanismos da memória e da imaginação no cérebro humano. Suas pesquisas se concentraram no hipocampo, uma região crucial para a formação de novas memórias, e lançaram luz sobre como o cérebro humano cria e manipula representações mentais.
Em 2010, Hassabis cofundou a DeepMind, uma empresa de inteligência artificial com a missão de “resolver a inteligência” e usar essa solução para “tornar o mundo um lugar melhor”. A DeepMind se tornou um dos principais centros de pesquisa em IA do mundo, atraindo talentos e desenvolvendo algoritmos inovadores que combinam aprendizado de máquina, neurociência e sistemas de inteligência artificial.
Um dos marcos da DeepMind foi o desenvolvimento do AlphaGo, um programa de IA que derrotou o campeão mundial de Go, Lee Sedol, em 2016. Agora em 2024, o atual CEO da DeepMind conqusitou junto a David Baker, bioquímico norte-americano o Prêmio Nobel de Química por suas descobertas na compreensão das proteínas.
Fei-Fei Li (1976)
Nascida em Pequim, China, em 1976, Fei-Fei Li é tida como a “madrinha da inteligência artificial”. Aos 16 anos, imigrou com seus pais para os Estados Unidos, enfrentando desafios como a barreira do idioma e dificuldades financeiras. Ela se graduou em física pela Universidade de Princeton em 1999 e obteve seu doutorado em engenharia elétrica pela Caltech em 2005.
Em 2009, Li liderou a criação do ImageNet, um banco de dados com milhões de imagens rotuladas manualmente, organizadas em milhares de categorias. O ImageNet se tornou um recurso fundamental para o treinamento de algoritmos de visão computacional, impulsionando uma revolução na área.
A competição anual ImageNet Challenge, que desafiava pesquisadores a desenvolver algoritmos de reconhecimento de imagens cada vez mais precisos, acelerou o desenvolvimento do aprendizado profundo e abriu caminho para avanços significativos em áreas como reconhecimento facial, detecção de objetos e análise de imagens médicas.
Li também se dedica a promover a diversidade e a inclusão na área de inteligência artificial. Em 2017, ela cofundou a AI4ALL, uma organização sem fins lucrativos que oferece programas de educação em IA para estudantes de grupos sub-representados, como meninas, negros e latinos.
Em 2024, Li consolidou sua posição como uma das mentes mais brilhantes da IA ao fundar a World Labs, uma startup focada em processamento visual e raciocínio avançado. Em apenas quatro meses, a empresa alcançou uma avaliação bilionária, com mais de US$ 1 bilhão de investimentos por gigantes como Andreessen Horowitz e Radical Ventures.
A World Labs busca desenvolver uma IA que se aproxime da cognição humana, capaz de compreender o mundo de forma mais profunda e contextualizada. Li acredita que essa “cognição artificial” tem o potencial de revolucionar áreas como saúde, educação e robótica, criando soluções inovadoras para os desafios da sociedade.
Além de suas conquistas como pesquisadora e empreendedora, Li também é uma líder acadêmica e uma defensora da ética em IA. Ela ocupou cargos de destaque na Universidade de Stanford e no Google, e atualmente é membro do conselho do X (ex-Twitter) e do Conselho Consultivo Científico das Nações Unidas.
A cientista também recebeu diversos reconhecimentos por suas contribuições no campo da inteligência artificial. Foi incluída na lista TIME 100 das pessoas mais influentes em IA em 2023 e recebeu o Prêmio Intel Lifetime Achievements Innovation no mesmo ano. Em 2020, foi eleita membro da Academia Nacional de Engenharia e da Academia Nacional de Medicina dos EUA. Em 2021, foi eleita membro da Academia Americana de Artes e Ciências. Em 2024, foi incluída na lista A100 da Gold House dos asiáticos mais impactantes.
Ilya Sutskever (1985)
Nascido na Rússia em 1985, Ilya Sutskever se mudou para Israel com sua família aos cinco anos de idade. Seu interesse pela inteligência artificial surgiu cedo, inspirado por pioneiros como Marvin Minsky e Douglas Hofstadter. Após concluir o ensino médio em Jerusalém, Sutskever se mudou para o Canadá, onde obteve seu bacharelado em matemática pela Universidade de Toronto em 2005 e seu doutorado em ciência da computação em 2012, sob a orientação de Geoffrey Hinton, um dos “padrinhos” da IA.
Sutskever se dedicou ao estudo de redes neurais artificiais, sistemas computacionais inspirados na estrutura do cérebro humano. Ele fez contribuições significativas para o desenvolvimento de algoritmos de aprendizado profundo, que permitem que as máquinas aprendam com grandes quantidades de dados e realizem tarefas complexas, como reconhecimento de imagens, processamento de linguagem natural e tradução automática.
Em 2012, Sutskever, juntamente com Alex Krizhevsky e Geoffrey Hinton, desenvolveu o AlexNet, uma rede neural profunda que venceu a competição ImageNet de reconhecimento de imagens por uma margem significativa. Essa vitória histórica demonstrou o poder do aprendizado profundo e impulsionou uma revolução na inteligência artificial, abrindo caminho para novas aplicações em diversas áreas.
Em 2015, Sutskever cofundou a OpenAI, uma organização de pesquisa em inteligência artificial sem fins lucrativos com a missão de garantir que a IA beneficie toda a humanidade. A OpenAI se tornou um dos principais centros de pesquisa em IA do mundo, desenvolvendo tecnologias inovadoras e promovendo o debate sobre os impactos sociais e éticos da IA.
Sutskever liderou o desenvolvimento da série GPT (Generative Pre-trained Transformer) de modelos de linguagem, que são capazes de gerar textos com fluidez e coerência impressionantes. O GPT-3, lançado em 2020, causou espanto por sua capacidade de gerar textos criativos, traduzir idiomas e responder a perguntas complexas.
O cofundador da OpenAI, anunciou em maio deste ano que estava deixando a startup norte-americana. Sutskever, cientista-chefe da OpenAI, fazia parte do conselho de administração que votou pela demissão do CEO e cofundador Sam Altman em novembro passado. Neste momento Sutskever está a frente da startup Safe Superintelligence que tem por objetivo produzir superinteligência - uma máquina mais inteligente que os humanos - de forma segura, de acordo com a porta-voz da empresa, Lulu Cheng Meservey.
Os comentários são exclusivos para assinantes do Estadão.