Professor Livre Docente de inteligência artificial na Faculdade de Saúde Pública da USP

Opinião|Existe um limite para o crescimento da inteligência artificial?


Aumento do tamanho dos algoritmos traz novos desafios para a supervisão humana

Por Alexandre Chiavegatto Filho

Um dos resultados mais surpreendentes dos avanços recentes dos algoritmos de inteligência artificial (IA) generativa tem sido os seus consistentes ganhos de escala, impulsionados pelo aumento dos parâmetros e pela crescente complexidade das redes neurais.

Em teoria, mais dados e maior poder computacional deveriam proporcionar respostas ligeiramente melhores, mas o crescimento da escala tem levado a um desempenho muito além do esperado.

Avanço das IAs podem dificultar supervisão humana Foto: Sergio Barzaghi /Estadão
continua após a publicidade

Essa melhoria nos resultados com o aumento dos algoritmos não tem aprimorado apenas as habilidades previstas, mas também levado a comportamentos emergentes, em que os modelos começam a realizar tarefas para as quais não foram explicitamente treinados.

Já no GPT-3, por exemplo, começaram a surgir habilidades de tradução entre idiomas, compreensão contextual em textos ambíguos e até síntese argumentativa, sem que esses conhecimentos tivessem sido diretamente ensinados. Esses comportamentos emergentes têm desafiado as expectativas tradicionais de machine learning, pois extrapolam a simples associação de padrões nos dados e se aproximam de uma verdadeira criatividade artificial.

No entanto, embora a ampliação de parâmetros tenha expandido os horizontes da ciência e aberto novas oportunidades de inovação, ela também traz um desafio técnico e ético considerável quanto à calibração e ao alinhamento dos modelos.

continua após a publicidade

Com o crescimento dos modelos, torna-se cada vez mais complexo minimizar vieses e respostas problemáticas. Esse desafio é particularmente importante em áreas sensíveis, como a saúde e o direito, onde uma má interpretação ou uma inferência enviesada pode levar a consequências sérias, com impacto direto sobre vidas.

Além disso, quanto maior o modelo, mais difícil se torna o alinhamento aos valores e contextos humanos, aumentando as chances de desvios de conduta. Esse problema de alinhamento é ainda mais relevante em aplicações de grande escala, onde a IA pode representar até um risco existencial.

continua após a publicidade

Apesar das preocupações e complexidades, o campo de IA generativa continua a se beneficiar dos ganhos de escala, trazendo não apenas melhorias de performance, mas também uma transição para modelos de propósito geral, capazes de lidar com uma ampla possibilidade de tarefas em vez de se limitarem a uma única função específica.

O aumento do tamanho dos algoritmos tem permitido um salto qualitativo e redefinido o que entendemos por inteligência artificial. No entanto, permanece a dúvida sobre até onde é possível avançar sem sacrificar o controle, a eficiência e a responsabilidade. À medida que a IA continue a escalar, não podemos chegar ao topo sem um plano de descida.

Um dos resultados mais surpreendentes dos avanços recentes dos algoritmos de inteligência artificial (IA) generativa tem sido os seus consistentes ganhos de escala, impulsionados pelo aumento dos parâmetros e pela crescente complexidade das redes neurais.

Em teoria, mais dados e maior poder computacional deveriam proporcionar respostas ligeiramente melhores, mas o crescimento da escala tem levado a um desempenho muito além do esperado.

Avanço das IAs podem dificultar supervisão humana Foto: Sergio Barzaghi /Estadão

Essa melhoria nos resultados com o aumento dos algoritmos não tem aprimorado apenas as habilidades previstas, mas também levado a comportamentos emergentes, em que os modelos começam a realizar tarefas para as quais não foram explicitamente treinados.

Já no GPT-3, por exemplo, começaram a surgir habilidades de tradução entre idiomas, compreensão contextual em textos ambíguos e até síntese argumentativa, sem que esses conhecimentos tivessem sido diretamente ensinados. Esses comportamentos emergentes têm desafiado as expectativas tradicionais de machine learning, pois extrapolam a simples associação de padrões nos dados e se aproximam de uma verdadeira criatividade artificial.

No entanto, embora a ampliação de parâmetros tenha expandido os horizontes da ciência e aberto novas oportunidades de inovação, ela também traz um desafio técnico e ético considerável quanto à calibração e ao alinhamento dos modelos.

Com o crescimento dos modelos, torna-se cada vez mais complexo minimizar vieses e respostas problemáticas. Esse desafio é particularmente importante em áreas sensíveis, como a saúde e o direito, onde uma má interpretação ou uma inferência enviesada pode levar a consequências sérias, com impacto direto sobre vidas.

Além disso, quanto maior o modelo, mais difícil se torna o alinhamento aos valores e contextos humanos, aumentando as chances de desvios de conduta. Esse problema de alinhamento é ainda mais relevante em aplicações de grande escala, onde a IA pode representar até um risco existencial.

Apesar das preocupações e complexidades, o campo de IA generativa continua a se beneficiar dos ganhos de escala, trazendo não apenas melhorias de performance, mas também uma transição para modelos de propósito geral, capazes de lidar com uma ampla possibilidade de tarefas em vez de se limitarem a uma única função específica.

O aumento do tamanho dos algoritmos tem permitido um salto qualitativo e redefinido o que entendemos por inteligência artificial. No entanto, permanece a dúvida sobre até onde é possível avançar sem sacrificar o controle, a eficiência e a responsabilidade. À medida que a IA continue a escalar, não podemos chegar ao topo sem um plano de descida.

Um dos resultados mais surpreendentes dos avanços recentes dos algoritmos de inteligência artificial (IA) generativa tem sido os seus consistentes ganhos de escala, impulsionados pelo aumento dos parâmetros e pela crescente complexidade das redes neurais.

Em teoria, mais dados e maior poder computacional deveriam proporcionar respostas ligeiramente melhores, mas o crescimento da escala tem levado a um desempenho muito além do esperado.

Avanço das IAs podem dificultar supervisão humana Foto: Sergio Barzaghi /Estadão

Essa melhoria nos resultados com o aumento dos algoritmos não tem aprimorado apenas as habilidades previstas, mas também levado a comportamentos emergentes, em que os modelos começam a realizar tarefas para as quais não foram explicitamente treinados.

Já no GPT-3, por exemplo, começaram a surgir habilidades de tradução entre idiomas, compreensão contextual em textos ambíguos e até síntese argumentativa, sem que esses conhecimentos tivessem sido diretamente ensinados. Esses comportamentos emergentes têm desafiado as expectativas tradicionais de machine learning, pois extrapolam a simples associação de padrões nos dados e se aproximam de uma verdadeira criatividade artificial.

No entanto, embora a ampliação de parâmetros tenha expandido os horizontes da ciência e aberto novas oportunidades de inovação, ela também traz um desafio técnico e ético considerável quanto à calibração e ao alinhamento dos modelos.

Com o crescimento dos modelos, torna-se cada vez mais complexo minimizar vieses e respostas problemáticas. Esse desafio é particularmente importante em áreas sensíveis, como a saúde e o direito, onde uma má interpretação ou uma inferência enviesada pode levar a consequências sérias, com impacto direto sobre vidas.

Além disso, quanto maior o modelo, mais difícil se torna o alinhamento aos valores e contextos humanos, aumentando as chances de desvios de conduta. Esse problema de alinhamento é ainda mais relevante em aplicações de grande escala, onde a IA pode representar até um risco existencial.

Apesar das preocupações e complexidades, o campo de IA generativa continua a se beneficiar dos ganhos de escala, trazendo não apenas melhorias de performance, mas também uma transição para modelos de propósito geral, capazes de lidar com uma ampla possibilidade de tarefas em vez de se limitarem a uma única função específica.

O aumento do tamanho dos algoritmos tem permitido um salto qualitativo e redefinido o que entendemos por inteligência artificial. No entanto, permanece a dúvida sobre até onde é possível avançar sem sacrificar o controle, a eficiência e a responsabilidade. À medida que a IA continue a escalar, não podemos chegar ao topo sem um plano de descida.

Opinião por Alexandre Chiavegatto Filho

Professor Livre Docente de inteligência artificial na Faculdade de Saúde Pública da USP

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.