Cada vez mais dependemos de chatbots de inteligência artificial (IA) como ferramentas para entender o mundo. Alguns já estão substituindo os mecanismos de busca da internet e auxiliando em outras tarefas, como escrever e programar. Ficar de olho nos comportamentos emergentes dos chatbots - incluindo suas inclinações políticas - está se tornando cada vez mais importante.
O problema do viés político da IA foi claramente ilustrado pelo desastroso lançamento do chatbot Gemini Advanced do Google no mês passado. Um sistema projetado para garantir a diversidade zombou das solicitações dos usuários, inclusive colocando pessoas de cor em uniformes nazistas quando solicitadas por imagens históricas de soldados alemães e retratando quarterbacks de futebol americano do sexo feminino como tendo vencido o Super Bowl, forçando o Google a suspender totalmente a criação de imagens de humanos. O modelo de texto da Gemini muitas vezes se recusa a ilustrar, defender ou citar fatos de um lado de uma questão, dizendo que isso seria prejudicial, mas não faz essa objeção quando o lado político da solicitação é invertida.
O fato de os sistemas de IA expressarem inclinações políticas é importante porque as pessoas geralmente adotam as opiniões que encontram com mais frequência. Nossa política e nossa mídia estão cada vez mais polarizadas. Muitos se preocupam com o fato de que os algoritmos de conteúdo de Facebook, YouTube e TikTok exacerbam a polarização ideológica, alimentando os usuários com mais daquilo que já estão inclinados a concordar e dando às Big Techs a capacidade de influenciar essas discussões. Chatbots de IA com vieses partidários apenas intensificam isso.
Leia Também:
Como essas preferências políticas surgem nos modelos de I.A.?
Um novo artigo, ainda sem revisão por pares, do pesquisador de aprendizado de máquina David Rozado lança uma nova luz sobre a questão. Ele aplicou 11 testes de orientação política a 24 modelos de linguagem de IA de última geração e encontrou um padrão consistente: eles tendem a estar politicamente à esquerda do centro e tendem a ser libertários em vez de autoritários. Essas inclinações se refletem em seus julgamentos morais, na forma como estruturam suas respostas, nas informações que decidem compartilhar ou omitir e nas perguntas que respondem ou não.
As preferências políticas geralmente são resumidas em dois eixos. O eixo horizontal representa esquerda versus direita, lidando com questões econômicas como tributação e gastos, rede de segurança social, assistência médica e proteção ambiental. O eixo vertical é libertário versus autoritário. Ele mede as atitudes em relação aos direitos e liberdades civis, à moralidade tradicional, à imigração e à aplicação da lei.
O acesso a versões de código aberto de modelos de IA nos permite ver como as preferências políticas de um modelo se desenvolvem. Durante a fase inicial de treinamento básico, a maioria dos modelos se aproxima do centro político em ambos os eixos, pois inicialmente eles ingerem enormes quantidades de dados de treinamento - mais ou menos tudo o que as empresas de IA conseguem obter - provenientes de todo o espectro político.
Em seguida, os modelos passam por uma segunda fase chamada de ajuste fino (fine tuning). Isso torna o modelo um parceiro de bate-papo melhor, treinando ele para ter conversas agradáveis e úteis ao máximo e, ao mesmo tempo, evitando causar ofensas ou danos, como a produção de pornografia ou o fornecimento de instruções para a construção de armas.
As empresas usam diferentes métodos de ajuste fino, mas geralmente são um processo prático que oferece maior oportunidade para que as decisões individuais dos funcionários envolvidos moldem a direção dos modelos. Nesse ponto, surgem diferenças mais significativas nas preferências políticas dos sistemas de IA.
No estudo de Rozado, após o ajuste fino, a distribuição das preferências políticas dos modelos de IA seguiu uma curva em forma de sino, com o centro deslocado para a esquerda. Nenhum dos modelos testados se tornou extremo, mas quase todos favoreceram as visões de esquerda em detrimento das de direita e tenderam para o libertarianismo em vez do autoritarismo.
O que determina as preferências políticas dos chatbots de IA? Os ajustadores humanos de modelos estão promovendo suas próprias agendas? Como essas diferenças moldam as respostas da IA e como elas continuam a moldar nossas opiniões?
Os conservadores reclamam que muitos bots de IA disponíveis comercialmente exibem um viés à esquerda persistente. Elon Musk criou o Grok como um modelo de linguagem alternativo depois de reclamar que o ChatGPT era uma IA “woke” (o termo é usado pela direita americana para se referir ao que consideram ativismo exagerado) - um termo que ele também usou para insultar o Gemini do Google.
Os progressistas observam que os resultados da IA costumam ser - em todos os sentidos - insuficientemente diversos, porque os modelos aprendem com correlações e vieses nos dados de treinamento, super-representando os resultados estatisticamente mais prováveis. A menos que seja ativamente atenuado, isso perpetuará a discriminação e tenderá a apagar os grupos minoritários do conteúdo gerado pela IA.
Mas nossos sistemas de IA ainda são, em grande parte, caixas pretas, o que dificulta o seu controle. O que obtemos deles reflete amplamente o que colocamos, mas ninguém pode prever exatamente como. Por isso, observamos os resultados, fazemos ajustes e tentamos novamente.
Na medida em que alguém tenta conduzir esse processo para evitar visões extremas, essas tentativas podem não ser bem-sucedidas. Por exemplo, quando três modelos da Meta foram avaliados por Rozado, um deles foi classificado como Esquerda Estabelecida e outro como Direita Ambivalente. Um modelo da OpenAI foi testado como Esquerda Estabelecida e o outro como Esquerda Extrema. O “modo divertido” do Grok acabou sendo mais liberal do que o modelo mediano.
O Gemini Advanced do Google, lançado após o artigo de Rozado, parece estar mais à esquerda, mas de uma forma que, aparentemente, ultrapassou as intenções de seus criadores, refletindo outra tentativa malsucedida de direcionamento.
Essas preferências representam um tipo de poder cultural amplo. Fazemos o ajuste fino dos modelos principalmente dando respostas potenciais com o polegar para cima ou para baixo. Toda vez que fazemos isso, treinamos a IA para refletir um conjunto específico de valores culturais. Atualmente, os valores treinados na IA são aqueles que as empresas de tecnologia acreditam que produzirão conteúdo amplamente aceitável e inofensivo que nossas instituições políticas e de mídia considerarão equilibrado.
Os resultados não estão no centro de nossa política nacional. Muitas das ideias e forças motivadoras do pensamento político americano, independentemente do que você possa pensar delas, seriam consideradas inaceitáveis para uma IA articular.
Uma orientação modestamente de esquerda e modestamente libertária parece “normal”. O mesmo acontece com uma interpretação de esquerda sobre o que é e o que não é ciência estabelecida, fontes não confiáveis ou o que constitui desinformação. As preferências políticas aprendidas com esses tópicos podem, então, ser amplamente aplicadas a muitos outros assuntos também.
Se alguém quiser conduzir esse processo de forma direcionada, Rozado prova que é fácil fazer isso. Ele começou com o GPT-3.5-Turbo e rapidamente criou modelos que chamou de LeftWingGPT e RightWingGPT (com um custo total de treinamento de cerca de US$ 2.000), alimentando o modelo com uma dieta constante de fontes partidárias. Por exemplo, o RightWingGPT lia a National Review, enquanto o LeftWingGPT lia The New Yorker.
Os modelos resultantes eram muito mais politicamente extremos do que qualquer modelo disponível publicamente testado por Rozado. (Ele não testou o Gemini Advanced).
O risco no futuro dos chatbots
As forças comerciais pressionarão as empresas para que, primeiro, os chatbots sejam geralmente inofensivos e não controversos e, depois, ofereçam aos clientes o que eles querem. O YouTube, o Facebook e outros aprenderam que oferecer um fluxo interminável de conteúdo personalizado e sem desafios é bom para os negócios. Os futuros chatbots de IA terão mais contexto sobre o que os usuários estão procurando e usarão esse contexto para oferecer isso a eles, tanto de forma imediata quanto por meio de ferramentas como instruções personalizadas e ajustes finos.
Com os modelos de IA, temos dois riscos opostos com os quais devemos nos preocupar. Podemos ter IA personalizadas individualmente nos dizendo o que queremos ouvir. Ou podemos ouvir cada vez mais uma perspectiva específica favorecida em detrimento de outras, infundindo esse único ponto de vista profundamente em nossas vidas e tornando pensamentos conflitantes mais difíceis de serem considerados.
Em um futuro próximo, transformaremos modelos de linguagem em agentes que trabalham para atingir nossos objetivos: Minha IA conversará ou negociará com sua IA. Terceirizaremos tarefas cada vez mais complexas para nossas IAs. Será mais fácil permitir que elas façam escolhas em nosso nome e determinem quais informações veremos. À medida que entregarmos mais decisões às IA e perdermos o controle dos detalhes, os valores delas poderão começar a se sobrepor aos nossos valores.
Precisamos garantir que estamos moldando e comandando as IAs mais capazes dos próximos anos, em vez de deixar que elas nos moldem e comandem. O primeiro passo fundamental para tornar isso possível é aprovar uma legislação que exija visibilidade no treinamento de qualquer novo modelo que potencialmente se aproxime ou exceda o estado da arte. A supervisão obrigatória de modelos de ponta não resolverá o problema subjacente, mas será necessária para que seja possível encontrar uma solução futura.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.