“Um de nossos erros no Vale do Silício foi não percebermos por muito tempo que estávamos na câmara de eco de San Francisco”, contou nesta quinta-feira, 18, no Museu do Amanhã, Sam Altman, CEO da OpenAI. Na terça, 16, ele foi ao Congresso americano e, de lá, não voltou para a Califórnia. Embarcou para o Canadá, de lá veio para o Brasil, daqui voará para a Nigéria, então fará o circuito europeu, daí Cingapura, Japão, Indonésia, Austrália.
Altman fez o mundo parar e pensar sobre inteligência artificial ao lançar o ChatGPT, em novembro. Deu um susto em todos mostrando o que pouca gente sabia: que a tecnologia está muito avançada. Agora faz o tour diplomático. Escolheu o Brasil para representar a América Latina porque é o país que mais usa suas ferramentas. Selecionou o Rio porque foi a cidade onde o interesse por experimentar a IA disparou primeiro.
O executivo não está fugindo de regulamentação. Se há uma mensagem principal de sua diplomacia, é o oposto. O mundo deve regular. Idealmente, deve regular cedo e de forma coletiva. No cenário ideal que imagina, seria uma mesma regra para todos os países. Mas ele não tem ideia sobre se isso é possível. Ou mesmo factível. Aos 38, no Vale ele é visto como o novo Steve Jobs. Foi por anos CEO da Y Combinator, um dos fundos de financiamento de startups com maior sucesso. Aí saiu porque desejava criar uma empresa nova e achou que inteligência artificial estava prestes a ficar muito importante. Ele estava, evidentemente, certo. Não é trivial erguer uma empresa de tecnologia capaz de rivalizar com todas as grandes. Ele o fez em dois anos.
Convidado pela Fundação Lemann para o palco do museu, ele tinha algumas outras mensagens importantes. “Em geral temos pelo menos uma geração para nos adaptarmos a novas tecnologias”, afirmou. “Com IA teremos dez anos.” Este é o principal drama a respeito de regulação.
Não é trivial. Afinal de contas, estes algoritmos são treinados com dados que nós humanos produzimos. Se um bairro é mais pobre e tem mais pessoas negras, talvez tenha também um índice maior de calotes. Mas não é a cor da pele que determina isso, é a pobreza das pessoas. O algoritmo, porém, pode não perceber os vieses que nós humanos impomos a toda hora. “Imagino com muita facilidade um mundo em que os vieses que já temos sejam até reforçados por inteligências artificiais”, ele afirma. Ou seja, um mundo em que fugir de decisões tomadas por preconceito se torne mais difícil. Afinal, será muito fácil para muita gente alegar que a IA é “neutra”. Não é. Não tem como ser.
O que ela tem como fazer é se adaptar ao que Altman chama de “sistemas de valores”. Cada cultura tem o seu. E o ChatGPT, por exemplo, poderia ser ajustado localmente a demonstrar os valores daquela comunidade. Ou, ao menos, os valores que aquela comunidade deseja. Teria, assim, um efeito de dirimir ao invés de reforçar preconceitos.
Estamos numa corrida. Em algum momento, talvez seis meses, talvez vinte anos, chegaremos àquilo que na área é chamado de Inteligência Artificial Geral, AGI na sigla em inglês. Cada tempo a define de um jeito, cada grupo também. Mas ela está a caminho. É o instante em que IA deixa de ser uma ferramenta e se torna capaz de reflexões mais complexas. “Por exemplo, seria capaz de avançar o conhecimento científico que temos”, ele sugere.
A decisão de botar na rua o ChatGPT disparou uma corrida. O Google se viu obrigado a mostrar o que ele tem. Elon Musk está aí, pelo mundo, comprando quantos computadores dá para erguer a sua companhia de IA. Virou competição e, ao tornar isso uma corrida pela liderança em um novo mercado, inevitavelmente acelerou o desenvolvimento de IA. E a proximidade da AGI.
Altman veio provocar. Que valores éticos desejamos para nossa IA?