O Google anunciou nesta quarta-feira, 26, em comunicado em seu blog, que está formando uma parceria com a Microsoft, a OpenAI e a Anthropic com foco em “garantir segurança e o desenvolvimento responsável” de modelos de inteligência artificial (IA).
As empresas anunciam a formação de um fórum sobre o tema, o “Frontier Model Forum”, que pretende partir da expertise técnica e operacional de seus integrantes para beneficiar todo o ecossistema de IA, bem como desenvolver uma biblioteca pública de soluções para apoiar melhores práticas e padrões no setor.
LEIA MAIS SOBRE IA
O fórum tem entre seus principais objetivos avançar na pesquisa de segurança em IA, para promover o desenvolvimento responsável de modelos, minimizar riscos, além de permitir avaliações independentes e padronizadas das capacidades e da segurança, diz o texto. Há também foco em apoiar esforços para desenvolver aplicações que possam ajudar a atender os “maiores desafios da sociedade”, como a mitigação e a adaptação às mudanças climáticas, a detecção precoce e a prevenção do câncer, além de combater ameaças cibernéticas.
O fórum se concentra em “modelos de fronteira”, definidos no comunicado como “modelos em larga escala de aprendizado de máquinas, que superam as capacidades hoje existentes na maioria dos modelos avançados existentes, e podem realizar uma variedade grande de tarefas”. O objetivo é que organizações que desenvolvam esses modelos e mostrem compromisso forte com sua segurança possam se unir à iniciativa.
A intenção também é trabalhar em três frentes, detalha o texto: identificar melhores práticas; avançar na pesquisa de segurança em IA; e facilitar o compartilhamento de informações entre empresas e governos.
Os comentários são exclusivos para assinantes do Estadão.