A essa altura, muitas pessoas acham que sabem o que é aprendizado de máquina: você “alimenta” os computadores com um monte de “dados de treinamento” para que eles “aprendam” a fazer coisas sem que tenhamos que especificar exatamente como. Mas os computadores não são cachorros, os dados não são ração e a frase anterior tem aspas demais. O que isso realmente significa?
O aprendizado de máquina é um subcampo da inteligência artificial (IA), que explora como simular computacionalmente (ou superar) a inteligência humana. Embora algumas técnicas de IA (como sistemas especializados) usem outras abordagens, o aprendizado de máquina impulsiona a maior parte do progresso atual do campo, concentrando-se em uma coisa: usar algoritmos para melhorar automaticamente o desempenho de outros algoritmos.
Veja como isso pode funcionar na prática, em um tipo comum de aprendizado de máquina chamado aprendizado supervisionado. O processo começa com uma tarefa - por exemplo, “reconhecer gatos em fotos”. O objetivo é encontrar uma função matemática que possa realizar a tarefa. Essa função, que é chamada de modelo, receberá um tipo de número como entrada (nesse caso, fotografias digitalizadas) e o transformará em mais números como saída, que podem representar rótulos dizendo “gato” ou “não gato”. O modelo tem uma forma matemática básica que fornece alguma estrutura para a tarefa, mas não é provável que produza resultados precisos em um primeiro momento.
Agora é hora de treinar o modelo, que é onde outro tipo de algoritmo assume o controle. Primeiro, uma função matemática diferente (chamada de objetivo) calcula um número que representa a “distância” atual entre os resultados do modelo e o resultado desejado. Em seguida, o algoritmo de treinamento usa a medida de distância do objetivo para ajustar a forma do modelo original. Ele não precisa “saber” nada sobre o que o modelo representa; ele simplesmente empurra partes do modelo (chamadas de parâmetros) em determinadas direções matemáticas que minimizam a distância entre o resultado real e o desejado.
Leia Também:
Depois que esses ajustes são feitos, o processo é reiniciado. O modelo atualizado transforma as entradas dos exemplos de treinamento em saídas (ligeiramente melhores) e, em seguida, a função objetivo indica mais um ajuste (ligeiramente melhor) no modelo. E assim por diante, para frente e para trás, para frente e para trás. Após iterações suficientes, o modelo treinado deve ser capaz de produzir saídas precisas para a maioria dos exemplos de treinamento. E aqui está o verdadeiro truque: ele também deve manter esse desempenho em novos exemplos da tarefa, desde que eles não sejam muito diferentes do treinamento.
O uso de uma função para empurrar repetidamente outra função pode soar mais como um trabalho de rotina do que como “aprendizado de máquina”. Mas esse é o ponto principal. O fato de colocar esse processo sem sentido em movimento permite que uma aproximação matemática da tarefa surja automaticamente, sem que os seres humanos tenham que especificar quais detalhes são importantes. Com algoritmos eficientes, funções bem escolhidas e exemplos suficientes, o aprendizado de máquina pode criar modelos computacionais poderosos que fazem coisas que não temos ideia de como programar.
Tarefas de classificação e previsão - como identificar gatos em fotos ou spam em e-mails - geralmente dependem do aprendizado de máquina supervisionado, o que significa que os dados de treinamento já estão classificados antecipadamente: As fotos que contêm gatos, por exemplo, são rotuladas como “gato”. O processo de treinamento molda uma função que pode mapear o máximo possível da entrada em sua saída correspondente (conhecida). Depois disso, o modelo treinado rotula exemplos desconhecidos.
O aprendizado não supervisionado, por sua vez, encontra estrutura em exemplos não rotulados, agrupando-os em grupos que não são especificados antecipadamente. Os sistemas de recomendação de conteúdo que aprendem com o comportamento anterior de um usuário, bem como algumas tarefas de reconhecimento de objetos na visão computacional, podem contar com o aprendizado não supervisionado. Algumas tarefas, como a modelagem de linguagem realizada por sistemas como o GPT-4, usam combinações inteligentes de técnicas supervisionadas e não supervisionadas conhecidas como aprendizado auto e semissupervisionado.
Por fim, o aprendizado por reforço molda uma função usando um sinal de recompensa em vez de exemplos de resultados desejados. Ao maximizar essa recompensa por meio de tentativa e erro, um modelo pode melhorar seu desempenho em tarefas dinâmicas e sequenciais, como entender jogos (como xadrez e Go) ou controlar o comportamento de agentes reais e virtuais (como carros autônomos ou chatbots).
Para colocar essas abordagens em prática, os pesquisadores usam uma variedade de algoritmos exóticos, desde máquinas de kernel até Q-learning. No entanto, desde a década de 2010, as redes neurais artificiais têm ocupado o centro do palco. Esses algoritmos - assim chamados porque sua forma básica é inspirada nas conexões entre as células cerebrais - foram bem-sucedidos em muitas tarefas complexas antes consideradas impraticáveis. Grandes modelos de linguagem (LLMs), que usam o aprendizado de máquina para prever a próxima palavra (ou fragmento de palavra) em uma sequência de texto, são criados com redes neurais “profundas” com bilhões ou até trilhões de parâmetros.
Mas mesmo esses gigantes, como todos os modelos de aprendizado de máquina, são apenas funções no fundo - formas matemáticas. No contexto certo, eles podem ser ferramentas extremamente poderosas, mas também têm pontos fracos conhecidos. Um modelo “superajustado” se ajusta tão bem aos seus exemplos de treinamento que não consegue generalizar de forma confiável, como um sistema de reconhecimento de gatos que falha quando uma foto é virada de cabeça para baixo. Os vieses nos dados podem ser amplificados pelo processo de treinamento, levando a resultados distorcidos ou até mesmo injustos. E mesmo quando um modelo funciona, nem sempre fica claro o motivo. Os algoritmos de aprendizagem profunda são particularmente afetados por esse problema de “interpretabilidade”.
Ainda assim, o processo em si é fácil de reconhecer. No fundo, todas essas máquinas aprendem da mesma maneira: para frente e para trás, para frente e para trás.
História original republicada com permissão da Quanta Magazine, uma publicação editorialmente independente apoiada pela Simons Foundation. Leia o conteúdo original em What Is Machine Learning?.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.