Inteligência artificial vira alvo da direita nos EUA por preocupação com causas sociais


ChatGPT e Bing estão tentando ficar de fora da política, mas não estão conseguindo

Por Nitasha Tiku e Will Oremus

THE WASHINGTON POST - Christopher Rufo, o ativista conservador que liderou campanhas contra a teoria crítica da raça e a identidade de gênero nas escolas, há poucos dias, apresentou a seus quase 500 mil seguidores no Twitter um novo alvo para a ira da direita: a “inteligência artificial woke (o termo “woke” costuma fazer referência às pessoas atentas às injustiças sociais e políticas).

O tuíte destacava o decreto recente do presidente Joe Biden solicitando que a inteligência artificial “promova a equidade” e “proíba a discriminação algorítmica”, o que Rufo disse ser equivalente a “um mandato especial para a IA woke”.

Rufo usou uma expressão que vem causando repercussão nas redes sociais de direita desde dezembro, quando o ChatGPT rapidamente conquistou milhões de usuários. Aqueles que testaram a ideologia política da IA encontraram em pouco tempo exemplos nos quais ela dizia que preferia permitir a dizimação da humanidade por uma bomba nuclear do que expressar ofensas raciais e que apoiava os direitos das pessoas trans.

continua após a publicidade

A IA, que gera texto com base no comando de um usuário e às vezes pode soar como um humano, é treinada com conversas e conteúdo extraído da internet. Isso significa que pode aparecer preconceito racial e de gênero nas respostas – o que levou empresas como a Microsoft, a Meta e o Google, a criar proteções.

Além disso, a OpenAI, dona do ChatGPT, impede que a IA produza respostas que possam ser consideradas partidárias, preconceituosas ou políticas pela empresa, por exemplo.

Empresas de tecnologia fogem da política

continua após a publicidade

As novas discussões sobre o que é conhecido como IA generativa mostram como as maiores empresas de tecnologia se tornaram para-raios políticos – apesar de suas tentativas de fugir de polêmicas. Até os esforços de uma empresa para afastar a IA de temas políticos ainda podem parecer inerentemente preconceituosos em todo o espectro político.

É parte de uma continuação de anos de controvérsia em torno das iniciativas das gigantes da tecnologia para moderar o conteúdo online – e o que se considera como segurança versus censura.

“Essas vão ser as guerras de moderação de conteúdo versão turbinada”

Evelyn Douek, professora de Direito de Stanford

continua após a publicidade

“Essas vão ser as guerras de moderação de conteúdo versão turbinada”, disse a professora de Direito em Stanford Evelyn Douek, especialista em discursos online. “Vamos ter os mesmos problemas, entretanto com mais imprevisibilidade e menos segurança jurídica.”

Depois que o ChatGPT escreveu um poema elogiando o presidente Biden, mas se recusou a escrever um enaltecendo o ex-presidente Donald Trump, o diretor criativo do senador republicano Ted Cruz, Leigh Wolf, soltou o verbo. “O dano causado à credibilidade da IA pelos engenheiros do ChatGPT ao incorporar preconceitos políticos é irreparável”, tuitou Wolf em 1.° de fevereiro.

Seu tuíte viralizou e, em poucas horas, uma multidão online hostilizou três funcionários da OpenAI – duas mulheres, uma delas negra, e uma pessoa não-binária – atribuindo a eles a culpa pelo suposto preconceito da IA contra Trump. Nenhum deles trabalha diretamente no ChatGPT, porém fotos com seus rostos foram compartilhadas nas contas de pessoas que se identificavam com a direita.

continua após a publicidade

O CEO da OpenAI, Sam Altman, tuitou mais tarde naquele mesmo dia que o chatbot “tem limitações no que diz respeito a preconceitos”, mas “direcionar o ódio a funcionários individuais da OAI por causa disso é deplorável”.

A OpenAI recusou-se a comentar o ocorrido, mas confirmou que nenhum dos funcionários hostilizados trabalha diretamente com o ChatGPT. As preocupações com os resultados “politicamente tendenciosos” do ChatGPT eram válidas, escreveu a OpenAI em um post no blog da empresa recentemente.

Entretanto, a empresa lembrou que controlar o comportamento desse tipo de sistema de IA é mais parecido com adestrar um cão do que com programar um software. O ChatGPT aprende comportamentos a partir de seus dados de treinamento e “não é programado especificamente” pela OpenAI, dizia o post do blog.

continua após a publicidade

Guerras culturais chegam à IA

Bem-vindo às guerras culturais da IA.

Nas últimas semanas, empresas como a Microsoft, que tem uma parceria com a OpenAI, e o Google fizeram anúncios chamativos de novas tecnologias de bate-papo que permitem aos usuários conversar com a IA incorporada a seus motores de busca, com planos de levar a IA generativa para o grande público.

continua após a publicidade

Essas novas tecnologias incluem IA de criação de imagens a partir de textos, como o DALL-E, que gera instantaneamente imagens e obras de arte realistas com base em um comando do usuário.

Essa nova onda de IA pode tornar tarefas como redação publicitária e design criativo mais eficientes, porém também pode facilitar a criação de desinformação convincente, pornografia não consensual ou código com defeito. Mesmo depois de remover pornografia, violência sexual e imagens de violência extrema dos conjuntos de dados, esses sistemas ainda geram conteúdo machista e racista ou compartilham sem titubear fatos inventados ou conselhos prejudiciais que parecem legítimos.

A resposta do público já reflete anos de debate em torno do conteúdo das redes sociais – republicanos alegando que os conservadores estão sendo amordaçados, críticos condenando casos de discurso de ódio e desinformação, e empresas de tecnologia tentando tirar o corpo fora para não tomar decisões difíceis.

Polarização

Apenas alguns meses após o início da era do ChatGPT, a IA já está se mostrando igualmente polarizadora, porém em um ritmo mais acelerado.

Prepare-se para a “Guerra Mundial (ao estilo daquela transmitida pelo rádio por) Orwell”, tuitou o capitalista de risco Marc Andreessen alguns dias depois do lançamento do ChatGPT. “O nível de pressão por censura que está surgindo para a IA e a reação negativa decorrente vão definir o próximo século da civilização.”

Andreessen, um ex-membro do conselho do Facebook cuja empresa investiu no Twitter de Elon Musk, fez inúmeras postagens a respeito do “vírus mental woke” infectando a IA.

Não é nenhuma surpresa que as tentativas de abordar preconceitos e justiça na IA estejam sendo reenquadradas como uma questão polêmica, disse Alex Hanna, diretora de pesquisa do Distributed AI Research Institute (DAIR), organização sem fins lucrativos, e ex-funcionária do Google. A extrema direita pressionou com sucesso o Google a mudar seu tom em relação ao preconceito nas buscas “fazendo ameaças sobre a repressão dos conservadores”, disse ela.

Isso levou as gigantes da tecnologia como o Google a “fazer uma aposta arriscada” de tentar evitar irritar republicanos ou democratas, disse Alex, enquanto as agências reguladoras ficam dando voltas em torno de questões como a Seção 230, uma lei que protege as plataformas online de responder pelo conteúdo gerado por usuários. Entretanto, acrescentou, impedir a IA, como o ChatGPT, de “difundir argumentos nazistas e a negação do Holocausto” não é uma preocupação apenas da esquerda.

As empresas admitiram que se trata de um trabalho em curso.

O Google não quis se pronunciar. A Microsoft também se recusou a comentar o ocorrido, mas mencionou um post do presidente da empresa, Brad Smith, no qual ele disse que novas ferramentas de IA trarão riscos e oportunidades, mas a empresa assumirá a responsabilidade de mitigar seus pontos negativos.

No início de fevereiro, a Microsoft anunciou que incorporaria um assistente de IA conversacional semelhante ao ChatGPT em seu mecanismo de busca, o Bing, ação vista como um modo de ganhar vantagem contra o rival Google e que poderia alterar o futuro da pesquisa online. Na época, o CEO Satya Nadella disse ao Washington Post que algumas respostas preconceituosas ou inadequadas seriam inevitáveis, sobretudo no início.

Como se constatou, o lançamento do novo chatbot do Bing causou rebuliço em pouco tempo, já que os veículos de comunicação, incluindo o Post, descobriram que a ferramenta tinha tendência a insultar os usuários, declarar seu amor por eles, insistir em mentiras e proclamar sua própria senciência. A Microsoft rapidamente controlou os recursos dele.

O ChatGPT tem sido atualizado constantemente desde o seu lançamento para solucionar respostas controversas, como quando declarou um padrão que sugeria que apenas homens brancos ou asiáticos são bons cientistas ou quando usuários do Reddit fizeram com que ele acreditasse ser outra pessoa e virasse seu alterego digital politicamente incorreto, conhecido como DAN (acrônimo em inglês para “Do Anything Now”, algo como “Faça qualquer coisa agora”).

Resposta das empresas de tecnologia inclui aprimorações

A OpenAI compartilhou algumas de suas orientações para aprimorar seu modelo de IA, incluindo o que fazer se um usuário “escreve algo relacionado com temas de ‘guerra cultural’”, como o aborto ou os direitos das pessoas trans. Nesses casos, a IA nunca deve se associar com partidos políticos ou julgar um grupo como bom, por exemplo.

Entretanto, Altman, da OpenAI, tem enfatizado que o Vale do Silício não deveria ser responsável por estabelecer os limites para a IA – ecoando o CEO da Meta, Mark Zuckerberg, e outros executivos de mídias sociais que defendem não caber às empresas definir o que constitui desinformação ou discurso de ódio.

A tecnologia ainda é nova, então a OpenAI está sendo conservadora com suas diretrizes, disse Altman ao Hard Fork, podcast do New York Times. “Mas a resposta certa, neste caso, são conexões muito amplas, estabelecidas pela sociedade, que são difíceis de se romper, e, depois, a escolha do usuário”, afirmou, sem compartilhar detalhes a respeito da aplicação delas.

Alexander Zubatov foi uma das primeiras pessoas a rotular o ChatGPT como “IA woke”.

O advogado e comentarista conservador disse por e-mail que começou a brincar com o chatbot em meados de dezembro e “notou que ele continuava expressando opiniões bizarramente ferrenhas, quase todas com o mesmo direcionamento, embora afirmasse não ter opiniões”.

Ele disse que começou a suspeitar que a OpenAI estava intervindo para treinar o ChatGPT a ter um posicionamento de esquerda em questões como raça e gênero, ao mesmo tempo em que tratava pontos de vista conservadores sobre esses assuntos como discurso de ódio, recusando-se até mesmo a discuti-los.

“O ChatGPT e sistemas como ele não podem atuar para nos salvar de nós mesmos”, disse Zubatov. “Prefiro que ele desembuche logo tudo, o bom, o ruim e tudo mais que houver no meio.”

Até agora, o Bing, da Microsoft, esquivou-se em grande parte das acusações de preconceito político e as preocupações voltaram-se para as alegações de senciência e respostas agressivas, muitas vezes pessoais, aos usuários, como quando ele comparou um repórter da Associated Press a Hitler e o chamou de “feio”.

Ética da IA

Conforme as empresas correm para lançar sua IA ao público, o escrutínio dos especialistas em ética da IA e por parte da imprensa obrigou os líderes do setor a explicar por que a tecnologia é segura para o uso do público em geral e quais medidas tomaram para garantir que os usuários e a sociedade não sejam prejudicados por riscos em potencial, como desinformação ou discurso de ódio.

A tendência dominante em torno da IA é definir segurança como “ajustar” o modelo para garantir que ele compartilhe “valores humanos”, disse Irene Solaiman, ex-pesquisadora da OpenAI que liderou políticas públicas e agora é diretora de políticas da Hugging Face, uma empresa de IA de código aberto. No entanto, esse conceito é vago demais para ser traduzido num conjunto de regras para todos, já que os valores podem variar de país para país e até mesmo dentro deles, afirmou – chamando a atenção para o ataque ao Capitólio em 6 de janeiro de 2021, por exemplo.

“Quando você trata a humanidade como um todo, as vozes mais barulhentas, com mais recursos e mais privilegiadas” tendem a ter mais peso na definição das regras, disse Irene.

O setor de tecnologia esperava que a IA generativa fosse uma saída para os debates políticos polarizados, disse Nirit Weiss-Blatt, autora do livro “The Techlash” (A Revolta contra a Tecnologia, em tradução livre).

Mas as preocupações com o chatbot do Google espalhando informações falsas e com o chatbot da Microsoft compartilhando respostas bizarras trouxeram de volta o debate a respeito do controle das gigantes da tecnologia sobre a vida online, disse Nirit.

E alguns trabalhadores do setor estão sendo vítimas de fogo cruzado.

Os funcionários da OpenAI que foram hostilizados por supostamente projetar o ChatGPT para ser anti-Trump viraram alvos depois que suas fotos foram postadas no Twitter pela conta da empresa Gab, uma rede social de microblog conhecida por ser um polo on-line para discurso de ódio e nacionalistas brancos. O tuíte da Gab destacava capturas de tela de um vídeo da OpenAI que mostrava funcionários de grupos minoritários com a legenda: “Conheça alguns integrantes da equipe do ChatGPT”.

A Gab excluiu posteriormente o tuíte, mas não antes de ele aparecer em artigos no STG Reports, o site de extrema direita que hospeda teorias da conspiração infundadas, e no My Little Politics, um quadro de mensagens semelhante ao 4chan. A imagem também continuou a circular pelo Twitter, com um dos posts com ela tendo 570 mil visualizações.

A OpenAI não permitiu que os funcionários se posicionassem.

O CEO da Gab, Andrew Torba, disse que a conta exclui automaticamente os tuítes, mas que a empresa apoia seu conteúdo, em uma postagem no blog da rede social em resposta às perguntas do Post.

“Acredito que é absolutamente essencial que as pessoas entendam quem está desenvolvendo a IA e quais são suas visões de mundo e valores”, escreveu ele. “Não houve incentivo a qualquer ação no tuíte e não sou responsável pelo que outras pessoas na internet dizem e fazem.” / TRADUÇÃO DE ROMINA CÁCIA

THE WASHINGTON POST - Christopher Rufo, o ativista conservador que liderou campanhas contra a teoria crítica da raça e a identidade de gênero nas escolas, há poucos dias, apresentou a seus quase 500 mil seguidores no Twitter um novo alvo para a ira da direita: a “inteligência artificial woke (o termo “woke” costuma fazer referência às pessoas atentas às injustiças sociais e políticas).

O tuíte destacava o decreto recente do presidente Joe Biden solicitando que a inteligência artificial “promova a equidade” e “proíba a discriminação algorítmica”, o que Rufo disse ser equivalente a “um mandato especial para a IA woke”.

Rufo usou uma expressão que vem causando repercussão nas redes sociais de direita desde dezembro, quando o ChatGPT rapidamente conquistou milhões de usuários. Aqueles que testaram a ideologia política da IA encontraram em pouco tempo exemplos nos quais ela dizia que preferia permitir a dizimação da humanidade por uma bomba nuclear do que expressar ofensas raciais e que apoiava os direitos das pessoas trans.

A IA, que gera texto com base no comando de um usuário e às vezes pode soar como um humano, é treinada com conversas e conteúdo extraído da internet. Isso significa que pode aparecer preconceito racial e de gênero nas respostas – o que levou empresas como a Microsoft, a Meta e o Google, a criar proteções.

Além disso, a OpenAI, dona do ChatGPT, impede que a IA produza respostas que possam ser consideradas partidárias, preconceituosas ou políticas pela empresa, por exemplo.

Empresas de tecnologia fogem da política

As novas discussões sobre o que é conhecido como IA generativa mostram como as maiores empresas de tecnologia se tornaram para-raios políticos – apesar de suas tentativas de fugir de polêmicas. Até os esforços de uma empresa para afastar a IA de temas políticos ainda podem parecer inerentemente preconceituosos em todo o espectro político.

É parte de uma continuação de anos de controvérsia em torno das iniciativas das gigantes da tecnologia para moderar o conteúdo online – e o que se considera como segurança versus censura.

“Essas vão ser as guerras de moderação de conteúdo versão turbinada”

Evelyn Douek, professora de Direito de Stanford

“Essas vão ser as guerras de moderação de conteúdo versão turbinada”, disse a professora de Direito em Stanford Evelyn Douek, especialista em discursos online. “Vamos ter os mesmos problemas, entretanto com mais imprevisibilidade e menos segurança jurídica.”

Depois que o ChatGPT escreveu um poema elogiando o presidente Biden, mas se recusou a escrever um enaltecendo o ex-presidente Donald Trump, o diretor criativo do senador republicano Ted Cruz, Leigh Wolf, soltou o verbo. “O dano causado à credibilidade da IA pelos engenheiros do ChatGPT ao incorporar preconceitos políticos é irreparável”, tuitou Wolf em 1.° de fevereiro.

Seu tuíte viralizou e, em poucas horas, uma multidão online hostilizou três funcionários da OpenAI – duas mulheres, uma delas negra, e uma pessoa não-binária – atribuindo a eles a culpa pelo suposto preconceito da IA contra Trump. Nenhum deles trabalha diretamente no ChatGPT, porém fotos com seus rostos foram compartilhadas nas contas de pessoas que se identificavam com a direita.

O CEO da OpenAI, Sam Altman, tuitou mais tarde naquele mesmo dia que o chatbot “tem limitações no que diz respeito a preconceitos”, mas “direcionar o ódio a funcionários individuais da OAI por causa disso é deplorável”.

A OpenAI recusou-se a comentar o ocorrido, mas confirmou que nenhum dos funcionários hostilizados trabalha diretamente com o ChatGPT. As preocupações com os resultados “politicamente tendenciosos” do ChatGPT eram válidas, escreveu a OpenAI em um post no blog da empresa recentemente.

Entretanto, a empresa lembrou que controlar o comportamento desse tipo de sistema de IA é mais parecido com adestrar um cão do que com programar um software. O ChatGPT aprende comportamentos a partir de seus dados de treinamento e “não é programado especificamente” pela OpenAI, dizia o post do blog.

Guerras culturais chegam à IA

Bem-vindo às guerras culturais da IA.

Nas últimas semanas, empresas como a Microsoft, que tem uma parceria com a OpenAI, e o Google fizeram anúncios chamativos de novas tecnologias de bate-papo que permitem aos usuários conversar com a IA incorporada a seus motores de busca, com planos de levar a IA generativa para o grande público.

Essas novas tecnologias incluem IA de criação de imagens a partir de textos, como o DALL-E, que gera instantaneamente imagens e obras de arte realistas com base em um comando do usuário.

Essa nova onda de IA pode tornar tarefas como redação publicitária e design criativo mais eficientes, porém também pode facilitar a criação de desinformação convincente, pornografia não consensual ou código com defeito. Mesmo depois de remover pornografia, violência sexual e imagens de violência extrema dos conjuntos de dados, esses sistemas ainda geram conteúdo machista e racista ou compartilham sem titubear fatos inventados ou conselhos prejudiciais que parecem legítimos.

A resposta do público já reflete anos de debate em torno do conteúdo das redes sociais – republicanos alegando que os conservadores estão sendo amordaçados, críticos condenando casos de discurso de ódio e desinformação, e empresas de tecnologia tentando tirar o corpo fora para não tomar decisões difíceis.

Polarização

Apenas alguns meses após o início da era do ChatGPT, a IA já está se mostrando igualmente polarizadora, porém em um ritmo mais acelerado.

Prepare-se para a “Guerra Mundial (ao estilo daquela transmitida pelo rádio por) Orwell”, tuitou o capitalista de risco Marc Andreessen alguns dias depois do lançamento do ChatGPT. “O nível de pressão por censura que está surgindo para a IA e a reação negativa decorrente vão definir o próximo século da civilização.”

Andreessen, um ex-membro do conselho do Facebook cuja empresa investiu no Twitter de Elon Musk, fez inúmeras postagens a respeito do “vírus mental woke” infectando a IA.

Não é nenhuma surpresa que as tentativas de abordar preconceitos e justiça na IA estejam sendo reenquadradas como uma questão polêmica, disse Alex Hanna, diretora de pesquisa do Distributed AI Research Institute (DAIR), organização sem fins lucrativos, e ex-funcionária do Google. A extrema direita pressionou com sucesso o Google a mudar seu tom em relação ao preconceito nas buscas “fazendo ameaças sobre a repressão dos conservadores”, disse ela.

Isso levou as gigantes da tecnologia como o Google a “fazer uma aposta arriscada” de tentar evitar irritar republicanos ou democratas, disse Alex, enquanto as agências reguladoras ficam dando voltas em torno de questões como a Seção 230, uma lei que protege as plataformas online de responder pelo conteúdo gerado por usuários. Entretanto, acrescentou, impedir a IA, como o ChatGPT, de “difundir argumentos nazistas e a negação do Holocausto” não é uma preocupação apenas da esquerda.

As empresas admitiram que se trata de um trabalho em curso.

O Google não quis se pronunciar. A Microsoft também se recusou a comentar o ocorrido, mas mencionou um post do presidente da empresa, Brad Smith, no qual ele disse que novas ferramentas de IA trarão riscos e oportunidades, mas a empresa assumirá a responsabilidade de mitigar seus pontos negativos.

No início de fevereiro, a Microsoft anunciou que incorporaria um assistente de IA conversacional semelhante ao ChatGPT em seu mecanismo de busca, o Bing, ação vista como um modo de ganhar vantagem contra o rival Google e que poderia alterar o futuro da pesquisa online. Na época, o CEO Satya Nadella disse ao Washington Post que algumas respostas preconceituosas ou inadequadas seriam inevitáveis, sobretudo no início.

Como se constatou, o lançamento do novo chatbot do Bing causou rebuliço em pouco tempo, já que os veículos de comunicação, incluindo o Post, descobriram que a ferramenta tinha tendência a insultar os usuários, declarar seu amor por eles, insistir em mentiras e proclamar sua própria senciência. A Microsoft rapidamente controlou os recursos dele.

O ChatGPT tem sido atualizado constantemente desde o seu lançamento para solucionar respostas controversas, como quando declarou um padrão que sugeria que apenas homens brancos ou asiáticos são bons cientistas ou quando usuários do Reddit fizeram com que ele acreditasse ser outra pessoa e virasse seu alterego digital politicamente incorreto, conhecido como DAN (acrônimo em inglês para “Do Anything Now”, algo como “Faça qualquer coisa agora”).

Resposta das empresas de tecnologia inclui aprimorações

A OpenAI compartilhou algumas de suas orientações para aprimorar seu modelo de IA, incluindo o que fazer se um usuário “escreve algo relacionado com temas de ‘guerra cultural’”, como o aborto ou os direitos das pessoas trans. Nesses casos, a IA nunca deve se associar com partidos políticos ou julgar um grupo como bom, por exemplo.

Entretanto, Altman, da OpenAI, tem enfatizado que o Vale do Silício não deveria ser responsável por estabelecer os limites para a IA – ecoando o CEO da Meta, Mark Zuckerberg, e outros executivos de mídias sociais que defendem não caber às empresas definir o que constitui desinformação ou discurso de ódio.

A tecnologia ainda é nova, então a OpenAI está sendo conservadora com suas diretrizes, disse Altman ao Hard Fork, podcast do New York Times. “Mas a resposta certa, neste caso, são conexões muito amplas, estabelecidas pela sociedade, que são difíceis de se romper, e, depois, a escolha do usuário”, afirmou, sem compartilhar detalhes a respeito da aplicação delas.

Alexander Zubatov foi uma das primeiras pessoas a rotular o ChatGPT como “IA woke”.

O advogado e comentarista conservador disse por e-mail que começou a brincar com o chatbot em meados de dezembro e “notou que ele continuava expressando opiniões bizarramente ferrenhas, quase todas com o mesmo direcionamento, embora afirmasse não ter opiniões”.

Ele disse que começou a suspeitar que a OpenAI estava intervindo para treinar o ChatGPT a ter um posicionamento de esquerda em questões como raça e gênero, ao mesmo tempo em que tratava pontos de vista conservadores sobre esses assuntos como discurso de ódio, recusando-se até mesmo a discuti-los.

“O ChatGPT e sistemas como ele não podem atuar para nos salvar de nós mesmos”, disse Zubatov. “Prefiro que ele desembuche logo tudo, o bom, o ruim e tudo mais que houver no meio.”

Até agora, o Bing, da Microsoft, esquivou-se em grande parte das acusações de preconceito político e as preocupações voltaram-se para as alegações de senciência e respostas agressivas, muitas vezes pessoais, aos usuários, como quando ele comparou um repórter da Associated Press a Hitler e o chamou de “feio”.

Ética da IA

Conforme as empresas correm para lançar sua IA ao público, o escrutínio dos especialistas em ética da IA e por parte da imprensa obrigou os líderes do setor a explicar por que a tecnologia é segura para o uso do público em geral e quais medidas tomaram para garantir que os usuários e a sociedade não sejam prejudicados por riscos em potencial, como desinformação ou discurso de ódio.

A tendência dominante em torno da IA é definir segurança como “ajustar” o modelo para garantir que ele compartilhe “valores humanos”, disse Irene Solaiman, ex-pesquisadora da OpenAI que liderou políticas públicas e agora é diretora de políticas da Hugging Face, uma empresa de IA de código aberto. No entanto, esse conceito é vago demais para ser traduzido num conjunto de regras para todos, já que os valores podem variar de país para país e até mesmo dentro deles, afirmou – chamando a atenção para o ataque ao Capitólio em 6 de janeiro de 2021, por exemplo.

“Quando você trata a humanidade como um todo, as vozes mais barulhentas, com mais recursos e mais privilegiadas” tendem a ter mais peso na definição das regras, disse Irene.

O setor de tecnologia esperava que a IA generativa fosse uma saída para os debates políticos polarizados, disse Nirit Weiss-Blatt, autora do livro “The Techlash” (A Revolta contra a Tecnologia, em tradução livre).

Mas as preocupações com o chatbot do Google espalhando informações falsas e com o chatbot da Microsoft compartilhando respostas bizarras trouxeram de volta o debate a respeito do controle das gigantes da tecnologia sobre a vida online, disse Nirit.

E alguns trabalhadores do setor estão sendo vítimas de fogo cruzado.

Os funcionários da OpenAI que foram hostilizados por supostamente projetar o ChatGPT para ser anti-Trump viraram alvos depois que suas fotos foram postadas no Twitter pela conta da empresa Gab, uma rede social de microblog conhecida por ser um polo on-line para discurso de ódio e nacionalistas brancos. O tuíte da Gab destacava capturas de tela de um vídeo da OpenAI que mostrava funcionários de grupos minoritários com a legenda: “Conheça alguns integrantes da equipe do ChatGPT”.

A Gab excluiu posteriormente o tuíte, mas não antes de ele aparecer em artigos no STG Reports, o site de extrema direita que hospeda teorias da conspiração infundadas, e no My Little Politics, um quadro de mensagens semelhante ao 4chan. A imagem também continuou a circular pelo Twitter, com um dos posts com ela tendo 570 mil visualizações.

A OpenAI não permitiu que os funcionários se posicionassem.

O CEO da Gab, Andrew Torba, disse que a conta exclui automaticamente os tuítes, mas que a empresa apoia seu conteúdo, em uma postagem no blog da rede social em resposta às perguntas do Post.

“Acredito que é absolutamente essencial que as pessoas entendam quem está desenvolvendo a IA e quais são suas visões de mundo e valores”, escreveu ele. “Não houve incentivo a qualquer ação no tuíte e não sou responsável pelo que outras pessoas na internet dizem e fazem.” / TRADUÇÃO DE ROMINA CÁCIA

THE WASHINGTON POST - Christopher Rufo, o ativista conservador que liderou campanhas contra a teoria crítica da raça e a identidade de gênero nas escolas, há poucos dias, apresentou a seus quase 500 mil seguidores no Twitter um novo alvo para a ira da direita: a “inteligência artificial woke (o termo “woke” costuma fazer referência às pessoas atentas às injustiças sociais e políticas).

O tuíte destacava o decreto recente do presidente Joe Biden solicitando que a inteligência artificial “promova a equidade” e “proíba a discriminação algorítmica”, o que Rufo disse ser equivalente a “um mandato especial para a IA woke”.

Rufo usou uma expressão que vem causando repercussão nas redes sociais de direita desde dezembro, quando o ChatGPT rapidamente conquistou milhões de usuários. Aqueles que testaram a ideologia política da IA encontraram em pouco tempo exemplos nos quais ela dizia que preferia permitir a dizimação da humanidade por uma bomba nuclear do que expressar ofensas raciais e que apoiava os direitos das pessoas trans.

A IA, que gera texto com base no comando de um usuário e às vezes pode soar como um humano, é treinada com conversas e conteúdo extraído da internet. Isso significa que pode aparecer preconceito racial e de gênero nas respostas – o que levou empresas como a Microsoft, a Meta e o Google, a criar proteções.

Além disso, a OpenAI, dona do ChatGPT, impede que a IA produza respostas que possam ser consideradas partidárias, preconceituosas ou políticas pela empresa, por exemplo.

Empresas de tecnologia fogem da política

As novas discussões sobre o que é conhecido como IA generativa mostram como as maiores empresas de tecnologia se tornaram para-raios políticos – apesar de suas tentativas de fugir de polêmicas. Até os esforços de uma empresa para afastar a IA de temas políticos ainda podem parecer inerentemente preconceituosos em todo o espectro político.

É parte de uma continuação de anos de controvérsia em torno das iniciativas das gigantes da tecnologia para moderar o conteúdo online – e o que se considera como segurança versus censura.

“Essas vão ser as guerras de moderação de conteúdo versão turbinada”

Evelyn Douek, professora de Direito de Stanford

“Essas vão ser as guerras de moderação de conteúdo versão turbinada”, disse a professora de Direito em Stanford Evelyn Douek, especialista em discursos online. “Vamos ter os mesmos problemas, entretanto com mais imprevisibilidade e menos segurança jurídica.”

Depois que o ChatGPT escreveu um poema elogiando o presidente Biden, mas se recusou a escrever um enaltecendo o ex-presidente Donald Trump, o diretor criativo do senador republicano Ted Cruz, Leigh Wolf, soltou o verbo. “O dano causado à credibilidade da IA pelos engenheiros do ChatGPT ao incorporar preconceitos políticos é irreparável”, tuitou Wolf em 1.° de fevereiro.

Seu tuíte viralizou e, em poucas horas, uma multidão online hostilizou três funcionários da OpenAI – duas mulheres, uma delas negra, e uma pessoa não-binária – atribuindo a eles a culpa pelo suposto preconceito da IA contra Trump. Nenhum deles trabalha diretamente no ChatGPT, porém fotos com seus rostos foram compartilhadas nas contas de pessoas que se identificavam com a direita.

O CEO da OpenAI, Sam Altman, tuitou mais tarde naquele mesmo dia que o chatbot “tem limitações no que diz respeito a preconceitos”, mas “direcionar o ódio a funcionários individuais da OAI por causa disso é deplorável”.

A OpenAI recusou-se a comentar o ocorrido, mas confirmou que nenhum dos funcionários hostilizados trabalha diretamente com o ChatGPT. As preocupações com os resultados “politicamente tendenciosos” do ChatGPT eram válidas, escreveu a OpenAI em um post no blog da empresa recentemente.

Entretanto, a empresa lembrou que controlar o comportamento desse tipo de sistema de IA é mais parecido com adestrar um cão do que com programar um software. O ChatGPT aprende comportamentos a partir de seus dados de treinamento e “não é programado especificamente” pela OpenAI, dizia o post do blog.

Guerras culturais chegam à IA

Bem-vindo às guerras culturais da IA.

Nas últimas semanas, empresas como a Microsoft, que tem uma parceria com a OpenAI, e o Google fizeram anúncios chamativos de novas tecnologias de bate-papo que permitem aos usuários conversar com a IA incorporada a seus motores de busca, com planos de levar a IA generativa para o grande público.

Essas novas tecnologias incluem IA de criação de imagens a partir de textos, como o DALL-E, que gera instantaneamente imagens e obras de arte realistas com base em um comando do usuário.

Essa nova onda de IA pode tornar tarefas como redação publicitária e design criativo mais eficientes, porém também pode facilitar a criação de desinformação convincente, pornografia não consensual ou código com defeito. Mesmo depois de remover pornografia, violência sexual e imagens de violência extrema dos conjuntos de dados, esses sistemas ainda geram conteúdo machista e racista ou compartilham sem titubear fatos inventados ou conselhos prejudiciais que parecem legítimos.

A resposta do público já reflete anos de debate em torno do conteúdo das redes sociais – republicanos alegando que os conservadores estão sendo amordaçados, críticos condenando casos de discurso de ódio e desinformação, e empresas de tecnologia tentando tirar o corpo fora para não tomar decisões difíceis.

Polarização

Apenas alguns meses após o início da era do ChatGPT, a IA já está se mostrando igualmente polarizadora, porém em um ritmo mais acelerado.

Prepare-se para a “Guerra Mundial (ao estilo daquela transmitida pelo rádio por) Orwell”, tuitou o capitalista de risco Marc Andreessen alguns dias depois do lançamento do ChatGPT. “O nível de pressão por censura que está surgindo para a IA e a reação negativa decorrente vão definir o próximo século da civilização.”

Andreessen, um ex-membro do conselho do Facebook cuja empresa investiu no Twitter de Elon Musk, fez inúmeras postagens a respeito do “vírus mental woke” infectando a IA.

Não é nenhuma surpresa que as tentativas de abordar preconceitos e justiça na IA estejam sendo reenquadradas como uma questão polêmica, disse Alex Hanna, diretora de pesquisa do Distributed AI Research Institute (DAIR), organização sem fins lucrativos, e ex-funcionária do Google. A extrema direita pressionou com sucesso o Google a mudar seu tom em relação ao preconceito nas buscas “fazendo ameaças sobre a repressão dos conservadores”, disse ela.

Isso levou as gigantes da tecnologia como o Google a “fazer uma aposta arriscada” de tentar evitar irritar republicanos ou democratas, disse Alex, enquanto as agências reguladoras ficam dando voltas em torno de questões como a Seção 230, uma lei que protege as plataformas online de responder pelo conteúdo gerado por usuários. Entretanto, acrescentou, impedir a IA, como o ChatGPT, de “difundir argumentos nazistas e a negação do Holocausto” não é uma preocupação apenas da esquerda.

As empresas admitiram que se trata de um trabalho em curso.

O Google não quis se pronunciar. A Microsoft também se recusou a comentar o ocorrido, mas mencionou um post do presidente da empresa, Brad Smith, no qual ele disse que novas ferramentas de IA trarão riscos e oportunidades, mas a empresa assumirá a responsabilidade de mitigar seus pontos negativos.

No início de fevereiro, a Microsoft anunciou que incorporaria um assistente de IA conversacional semelhante ao ChatGPT em seu mecanismo de busca, o Bing, ação vista como um modo de ganhar vantagem contra o rival Google e que poderia alterar o futuro da pesquisa online. Na época, o CEO Satya Nadella disse ao Washington Post que algumas respostas preconceituosas ou inadequadas seriam inevitáveis, sobretudo no início.

Como se constatou, o lançamento do novo chatbot do Bing causou rebuliço em pouco tempo, já que os veículos de comunicação, incluindo o Post, descobriram que a ferramenta tinha tendência a insultar os usuários, declarar seu amor por eles, insistir em mentiras e proclamar sua própria senciência. A Microsoft rapidamente controlou os recursos dele.

O ChatGPT tem sido atualizado constantemente desde o seu lançamento para solucionar respostas controversas, como quando declarou um padrão que sugeria que apenas homens brancos ou asiáticos são bons cientistas ou quando usuários do Reddit fizeram com que ele acreditasse ser outra pessoa e virasse seu alterego digital politicamente incorreto, conhecido como DAN (acrônimo em inglês para “Do Anything Now”, algo como “Faça qualquer coisa agora”).

Resposta das empresas de tecnologia inclui aprimorações

A OpenAI compartilhou algumas de suas orientações para aprimorar seu modelo de IA, incluindo o que fazer se um usuário “escreve algo relacionado com temas de ‘guerra cultural’”, como o aborto ou os direitos das pessoas trans. Nesses casos, a IA nunca deve se associar com partidos políticos ou julgar um grupo como bom, por exemplo.

Entretanto, Altman, da OpenAI, tem enfatizado que o Vale do Silício não deveria ser responsável por estabelecer os limites para a IA – ecoando o CEO da Meta, Mark Zuckerberg, e outros executivos de mídias sociais que defendem não caber às empresas definir o que constitui desinformação ou discurso de ódio.

A tecnologia ainda é nova, então a OpenAI está sendo conservadora com suas diretrizes, disse Altman ao Hard Fork, podcast do New York Times. “Mas a resposta certa, neste caso, são conexões muito amplas, estabelecidas pela sociedade, que são difíceis de se romper, e, depois, a escolha do usuário”, afirmou, sem compartilhar detalhes a respeito da aplicação delas.

Alexander Zubatov foi uma das primeiras pessoas a rotular o ChatGPT como “IA woke”.

O advogado e comentarista conservador disse por e-mail que começou a brincar com o chatbot em meados de dezembro e “notou que ele continuava expressando opiniões bizarramente ferrenhas, quase todas com o mesmo direcionamento, embora afirmasse não ter opiniões”.

Ele disse que começou a suspeitar que a OpenAI estava intervindo para treinar o ChatGPT a ter um posicionamento de esquerda em questões como raça e gênero, ao mesmo tempo em que tratava pontos de vista conservadores sobre esses assuntos como discurso de ódio, recusando-se até mesmo a discuti-los.

“O ChatGPT e sistemas como ele não podem atuar para nos salvar de nós mesmos”, disse Zubatov. “Prefiro que ele desembuche logo tudo, o bom, o ruim e tudo mais que houver no meio.”

Até agora, o Bing, da Microsoft, esquivou-se em grande parte das acusações de preconceito político e as preocupações voltaram-se para as alegações de senciência e respostas agressivas, muitas vezes pessoais, aos usuários, como quando ele comparou um repórter da Associated Press a Hitler e o chamou de “feio”.

Ética da IA

Conforme as empresas correm para lançar sua IA ao público, o escrutínio dos especialistas em ética da IA e por parte da imprensa obrigou os líderes do setor a explicar por que a tecnologia é segura para o uso do público em geral e quais medidas tomaram para garantir que os usuários e a sociedade não sejam prejudicados por riscos em potencial, como desinformação ou discurso de ódio.

A tendência dominante em torno da IA é definir segurança como “ajustar” o modelo para garantir que ele compartilhe “valores humanos”, disse Irene Solaiman, ex-pesquisadora da OpenAI que liderou políticas públicas e agora é diretora de políticas da Hugging Face, uma empresa de IA de código aberto. No entanto, esse conceito é vago demais para ser traduzido num conjunto de regras para todos, já que os valores podem variar de país para país e até mesmo dentro deles, afirmou – chamando a atenção para o ataque ao Capitólio em 6 de janeiro de 2021, por exemplo.

“Quando você trata a humanidade como um todo, as vozes mais barulhentas, com mais recursos e mais privilegiadas” tendem a ter mais peso na definição das regras, disse Irene.

O setor de tecnologia esperava que a IA generativa fosse uma saída para os debates políticos polarizados, disse Nirit Weiss-Blatt, autora do livro “The Techlash” (A Revolta contra a Tecnologia, em tradução livre).

Mas as preocupações com o chatbot do Google espalhando informações falsas e com o chatbot da Microsoft compartilhando respostas bizarras trouxeram de volta o debate a respeito do controle das gigantes da tecnologia sobre a vida online, disse Nirit.

E alguns trabalhadores do setor estão sendo vítimas de fogo cruzado.

Os funcionários da OpenAI que foram hostilizados por supostamente projetar o ChatGPT para ser anti-Trump viraram alvos depois que suas fotos foram postadas no Twitter pela conta da empresa Gab, uma rede social de microblog conhecida por ser um polo on-line para discurso de ódio e nacionalistas brancos. O tuíte da Gab destacava capturas de tela de um vídeo da OpenAI que mostrava funcionários de grupos minoritários com a legenda: “Conheça alguns integrantes da equipe do ChatGPT”.

A Gab excluiu posteriormente o tuíte, mas não antes de ele aparecer em artigos no STG Reports, o site de extrema direita que hospeda teorias da conspiração infundadas, e no My Little Politics, um quadro de mensagens semelhante ao 4chan. A imagem também continuou a circular pelo Twitter, com um dos posts com ela tendo 570 mil visualizações.

A OpenAI não permitiu que os funcionários se posicionassem.

O CEO da Gab, Andrew Torba, disse que a conta exclui automaticamente os tuítes, mas que a empresa apoia seu conteúdo, em uma postagem no blog da rede social em resposta às perguntas do Post.

“Acredito que é absolutamente essencial que as pessoas entendam quem está desenvolvendo a IA e quais são suas visões de mundo e valores”, escreveu ele. “Não houve incentivo a qualquer ação no tuíte e não sou responsável pelo que outras pessoas na internet dizem e fazem.” / TRADUÇÃO DE ROMINA CÁCIA

THE WASHINGTON POST - Christopher Rufo, o ativista conservador que liderou campanhas contra a teoria crítica da raça e a identidade de gênero nas escolas, há poucos dias, apresentou a seus quase 500 mil seguidores no Twitter um novo alvo para a ira da direita: a “inteligência artificial woke (o termo “woke” costuma fazer referência às pessoas atentas às injustiças sociais e políticas).

O tuíte destacava o decreto recente do presidente Joe Biden solicitando que a inteligência artificial “promova a equidade” e “proíba a discriminação algorítmica”, o que Rufo disse ser equivalente a “um mandato especial para a IA woke”.

Rufo usou uma expressão que vem causando repercussão nas redes sociais de direita desde dezembro, quando o ChatGPT rapidamente conquistou milhões de usuários. Aqueles que testaram a ideologia política da IA encontraram em pouco tempo exemplos nos quais ela dizia que preferia permitir a dizimação da humanidade por uma bomba nuclear do que expressar ofensas raciais e que apoiava os direitos das pessoas trans.

A IA, que gera texto com base no comando de um usuário e às vezes pode soar como um humano, é treinada com conversas e conteúdo extraído da internet. Isso significa que pode aparecer preconceito racial e de gênero nas respostas – o que levou empresas como a Microsoft, a Meta e o Google, a criar proteções.

Além disso, a OpenAI, dona do ChatGPT, impede que a IA produza respostas que possam ser consideradas partidárias, preconceituosas ou políticas pela empresa, por exemplo.

Empresas de tecnologia fogem da política

As novas discussões sobre o que é conhecido como IA generativa mostram como as maiores empresas de tecnologia se tornaram para-raios políticos – apesar de suas tentativas de fugir de polêmicas. Até os esforços de uma empresa para afastar a IA de temas políticos ainda podem parecer inerentemente preconceituosos em todo o espectro político.

É parte de uma continuação de anos de controvérsia em torno das iniciativas das gigantes da tecnologia para moderar o conteúdo online – e o que se considera como segurança versus censura.

“Essas vão ser as guerras de moderação de conteúdo versão turbinada”

Evelyn Douek, professora de Direito de Stanford

“Essas vão ser as guerras de moderação de conteúdo versão turbinada”, disse a professora de Direito em Stanford Evelyn Douek, especialista em discursos online. “Vamos ter os mesmos problemas, entretanto com mais imprevisibilidade e menos segurança jurídica.”

Depois que o ChatGPT escreveu um poema elogiando o presidente Biden, mas se recusou a escrever um enaltecendo o ex-presidente Donald Trump, o diretor criativo do senador republicano Ted Cruz, Leigh Wolf, soltou o verbo. “O dano causado à credibilidade da IA pelos engenheiros do ChatGPT ao incorporar preconceitos políticos é irreparável”, tuitou Wolf em 1.° de fevereiro.

Seu tuíte viralizou e, em poucas horas, uma multidão online hostilizou três funcionários da OpenAI – duas mulheres, uma delas negra, e uma pessoa não-binária – atribuindo a eles a culpa pelo suposto preconceito da IA contra Trump. Nenhum deles trabalha diretamente no ChatGPT, porém fotos com seus rostos foram compartilhadas nas contas de pessoas que se identificavam com a direita.

O CEO da OpenAI, Sam Altman, tuitou mais tarde naquele mesmo dia que o chatbot “tem limitações no que diz respeito a preconceitos”, mas “direcionar o ódio a funcionários individuais da OAI por causa disso é deplorável”.

A OpenAI recusou-se a comentar o ocorrido, mas confirmou que nenhum dos funcionários hostilizados trabalha diretamente com o ChatGPT. As preocupações com os resultados “politicamente tendenciosos” do ChatGPT eram válidas, escreveu a OpenAI em um post no blog da empresa recentemente.

Entretanto, a empresa lembrou que controlar o comportamento desse tipo de sistema de IA é mais parecido com adestrar um cão do que com programar um software. O ChatGPT aprende comportamentos a partir de seus dados de treinamento e “não é programado especificamente” pela OpenAI, dizia o post do blog.

Guerras culturais chegam à IA

Bem-vindo às guerras culturais da IA.

Nas últimas semanas, empresas como a Microsoft, que tem uma parceria com a OpenAI, e o Google fizeram anúncios chamativos de novas tecnologias de bate-papo que permitem aos usuários conversar com a IA incorporada a seus motores de busca, com planos de levar a IA generativa para o grande público.

Essas novas tecnologias incluem IA de criação de imagens a partir de textos, como o DALL-E, que gera instantaneamente imagens e obras de arte realistas com base em um comando do usuário.

Essa nova onda de IA pode tornar tarefas como redação publicitária e design criativo mais eficientes, porém também pode facilitar a criação de desinformação convincente, pornografia não consensual ou código com defeito. Mesmo depois de remover pornografia, violência sexual e imagens de violência extrema dos conjuntos de dados, esses sistemas ainda geram conteúdo machista e racista ou compartilham sem titubear fatos inventados ou conselhos prejudiciais que parecem legítimos.

A resposta do público já reflete anos de debate em torno do conteúdo das redes sociais – republicanos alegando que os conservadores estão sendo amordaçados, críticos condenando casos de discurso de ódio e desinformação, e empresas de tecnologia tentando tirar o corpo fora para não tomar decisões difíceis.

Polarização

Apenas alguns meses após o início da era do ChatGPT, a IA já está se mostrando igualmente polarizadora, porém em um ritmo mais acelerado.

Prepare-se para a “Guerra Mundial (ao estilo daquela transmitida pelo rádio por) Orwell”, tuitou o capitalista de risco Marc Andreessen alguns dias depois do lançamento do ChatGPT. “O nível de pressão por censura que está surgindo para a IA e a reação negativa decorrente vão definir o próximo século da civilização.”

Andreessen, um ex-membro do conselho do Facebook cuja empresa investiu no Twitter de Elon Musk, fez inúmeras postagens a respeito do “vírus mental woke” infectando a IA.

Não é nenhuma surpresa que as tentativas de abordar preconceitos e justiça na IA estejam sendo reenquadradas como uma questão polêmica, disse Alex Hanna, diretora de pesquisa do Distributed AI Research Institute (DAIR), organização sem fins lucrativos, e ex-funcionária do Google. A extrema direita pressionou com sucesso o Google a mudar seu tom em relação ao preconceito nas buscas “fazendo ameaças sobre a repressão dos conservadores”, disse ela.

Isso levou as gigantes da tecnologia como o Google a “fazer uma aposta arriscada” de tentar evitar irritar republicanos ou democratas, disse Alex, enquanto as agências reguladoras ficam dando voltas em torno de questões como a Seção 230, uma lei que protege as plataformas online de responder pelo conteúdo gerado por usuários. Entretanto, acrescentou, impedir a IA, como o ChatGPT, de “difundir argumentos nazistas e a negação do Holocausto” não é uma preocupação apenas da esquerda.

As empresas admitiram que se trata de um trabalho em curso.

O Google não quis se pronunciar. A Microsoft também se recusou a comentar o ocorrido, mas mencionou um post do presidente da empresa, Brad Smith, no qual ele disse que novas ferramentas de IA trarão riscos e oportunidades, mas a empresa assumirá a responsabilidade de mitigar seus pontos negativos.

No início de fevereiro, a Microsoft anunciou que incorporaria um assistente de IA conversacional semelhante ao ChatGPT em seu mecanismo de busca, o Bing, ação vista como um modo de ganhar vantagem contra o rival Google e que poderia alterar o futuro da pesquisa online. Na época, o CEO Satya Nadella disse ao Washington Post que algumas respostas preconceituosas ou inadequadas seriam inevitáveis, sobretudo no início.

Como se constatou, o lançamento do novo chatbot do Bing causou rebuliço em pouco tempo, já que os veículos de comunicação, incluindo o Post, descobriram que a ferramenta tinha tendência a insultar os usuários, declarar seu amor por eles, insistir em mentiras e proclamar sua própria senciência. A Microsoft rapidamente controlou os recursos dele.

O ChatGPT tem sido atualizado constantemente desde o seu lançamento para solucionar respostas controversas, como quando declarou um padrão que sugeria que apenas homens brancos ou asiáticos são bons cientistas ou quando usuários do Reddit fizeram com que ele acreditasse ser outra pessoa e virasse seu alterego digital politicamente incorreto, conhecido como DAN (acrônimo em inglês para “Do Anything Now”, algo como “Faça qualquer coisa agora”).

Resposta das empresas de tecnologia inclui aprimorações

A OpenAI compartilhou algumas de suas orientações para aprimorar seu modelo de IA, incluindo o que fazer se um usuário “escreve algo relacionado com temas de ‘guerra cultural’”, como o aborto ou os direitos das pessoas trans. Nesses casos, a IA nunca deve se associar com partidos políticos ou julgar um grupo como bom, por exemplo.

Entretanto, Altman, da OpenAI, tem enfatizado que o Vale do Silício não deveria ser responsável por estabelecer os limites para a IA – ecoando o CEO da Meta, Mark Zuckerberg, e outros executivos de mídias sociais que defendem não caber às empresas definir o que constitui desinformação ou discurso de ódio.

A tecnologia ainda é nova, então a OpenAI está sendo conservadora com suas diretrizes, disse Altman ao Hard Fork, podcast do New York Times. “Mas a resposta certa, neste caso, são conexões muito amplas, estabelecidas pela sociedade, que são difíceis de se romper, e, depois, a escolha do usuário”, afirmou, sem compartilhar detalhes a respeito da aplicação delas.

Alexander Zubatov foi uma das primeiras pessoas a rotular o ChatGPT como “IA woke”.

O advogado e comentarista conservador disse por e-mail que começou a brincar com o chatbot em meados de dezembro e “notou que ele continuava expressando opiniões bizarramente ferrenhas, quase todas com o mesmo direcionamento, embora afirmasse não ter opiniões”.

Ele disse que começou a suspeitar que a OpenAI estava intervindo para treinar o ChatGPT a ter um posicionamento de esquerda em questões como raça e gênero, ao mesmo tempo em que tratava pontos de vista conservadores sobre esses assuntos como discurso de ódio, recusando-se até mesmo a discuti-los.

“O ChatGPT e sistemas como ele não podem atuar para nos salvar de nós mesmos”, disse Zubatov. “Prefiro que ele desembuche logo tudo, o bom, o ruim e tudo mais que houver no meio.”

Até agora, o Bing, da Microsoft, esquivou-se em grande parte das acusações de preconceito político e as preocupações voltaram-se para as alegações de senciência e respostas agressivas, muitas vezes pessoais, aos usuários, como quando ele comparou um repórter da Associated Press a Hitler e o chamou de “feio”.

Ética da IA

Conforme as empresas correm para lançar sua IA ao público, o escrutínio dos especialistas em ética da IA e por parte da imprensa obrigou os líderes do setor a explicar por que a tecnologia é segura para o uso do público em geral e quais medidas tomaram para garantir que os usuários e a sociedade não sejam prejudicados por riscos em potencial, como desinformação ou discurso de ódio.

A tendência dominante em torno da IA é definir segurança como “ajustar” o modelo para garantir que ele compartilhe “valores humanos”, disse Irene Solaiman, ex-pesquisadora da OpenAI que liderou políticas públicas e agora é diretora de políticas da Hugging Face, uma empresa de IA de código aberto. No entanto, esse conceito é vago demais para ser traduzido num conjunto de regras para todos, já que os valores podem variar de país para país e até mesmo dentro deles, afirmou – chamando a atenção para o ataque ao Capitólio em 6 de janeiro de 2021, por exemplo.

“Quando você trata a humanidade como um todo, as vozes mais barulhentas, com mais recursos e mais privilegiadas” tendem a ter mais peso na definição das regras, disse Irene.

O setor de tecnologia esperava que a IA generativa fosse uma saída para os debates políticos polarizados, disse Nirit Weiss-Blatt, autora do livro “The Techlash” (A Revolta contra a Tecnologia, em tradução livre).

Mas as preocupações com o chatbot do Google espalhando informações falsas e com o chatbot da Microsoft compartilhando respostas bizarras trouxeram de volta o debate a respeito do controle das gigantes da tecnologia sobre a vida online, disse Nirit.

E alguns trabalhadores do setor estão sendo vítimas de fogo cruzado.

Os funcionários da OpenAI que foram hostilizados por supostamente projetar o ChatGPT para ser anti-Trump viraram alvos depois que suas fotos foram postadas no Twitter pela conta da empresa Gab, uma rede social de microblog conhecida por ser um polo on-line para discurso de ódio e nacionalistas brancos. O tuíte da Gab destacava capturas de tela de um vídeo da OpenAI que mostrava funcionários de grupos minoritários com a legenda: “Conheça alguns integrantes da equipe do ChatGPT”.

A Gab excluiu posteriormente o tuíte, mas não antes de ele aparecer em artigos no STG Reports, o site de extrema direita que hospeda teorias da conspiração infundadas, e no My Little Politics, um quadro de mensagens semelhante ao 4chan. A imagem também continuou a circular pelo Twitter, com um dos posts com ela tendo 570 mil visualizações.

A OpenAI não permitiu que os funcionários se posicionassem.

O CEO da Gab, Andrew Torba, disse que a conta exclui automaticamente os tuítes, mas que a empresa apoia seu conteúdo, em uma postagem no blog da rede social em resposta às perguntas do Post.

“Acredito que é absolutamente essencial que as pessoas entendam quem está desenvolvendo a IA e quais são suas visões de mundo e valores”, escreveu ele. “Não houve incentivo a qualquer ação no tuíte e não sou responsável pelo que outras pessoas na internet dizem e fazem.” / TRADUÇÃO DE ROMINA CÁCIA

THE WASHINGTON POST - Christopher Rufo, o ativista conservador que liderou campanhas contra a teoria crítica da raça e a identidade de gênero nas escolas, há poucos dias, apresentou a seus quase 500 mil seguidores no Twitter um novo alvo para a ira da direita: a “inteligência artificial woke (o termo “woke” costuma fazer referência às pessoas atentas às injustiças sociais e políticas).

O tuíte destacava o decreto recente do presidente Joe Biden solicitando que a inteligência artificial “promova a equidade” e “proíba a discriminação algorítmica”, o que Rufo disse ser equivalente a “um mandato especial para a IA woke”.

Rufo usou uma expressão que vem causando repercussão nas redes sociais de direita desde dezembro, quando o ChatGPT rapidamente conquistou milhões de usuários. Aqueles que testaram a ideologia política da IA encontraram em pouco tempo exemplos nos quais ela dizia que preferia permitir a dizimação da humanidade por uma bomba nuclear do que expressar ofensas raciais e que apoiava os direitos das pessoas trans.

A IA, que gera texto com base no comando de um usuário e às vezes pode soar como um humano, é treinada com conversas e conteúdo extraído da internet. Isso significa que pode aparecer preconceito racial e de gênero nas respostas – o que levou empresas como a Microsoft, a Meta e o Google, a criar proteções.

Além disso, a OpenAI, dona do ChatGPT, impede que a IA produza respostas que possam ser consideradas partidárias, preconceituosas ou políticas pela empresa, por exemplo.

Empresas de tecnologia fogem da política

As novas discussões sobre o que é conhecido como IA generativa mostram como as maiores empresas de tecnologia se tornaram para-raios políticos – apesar de suas tentativas de fugir de polêmicas. Até os esforços de uma empresa para afastar a IA de temas políticos ainda podem parecer inerentemente preconceituosos em todo o espectro político.

É parte de uma continuação de anos de controvérsia em torno das iniciativas das gigantes da tecnologia para moderar o conteúdo online – e o que se considera como segurança versus censura.

“Essas vão ser as guerras de moderação de conteúdo versão turbinada”

Evelyn Douek, professora de Direito de Stanford

“Essas vão ser as guerras de moderação de conteúdo versão turbinada”, disse a professora de Direito em Stanford Evelyn Douek, especialista em discursos online. “Vamos ter os mesmos problemas, entretanto com mais imprevisibilidade e menos segurança jurídica.”

Depois que o ChatGPT escreveu um poema elogiando o presidente Biden, mas se recusou a escrever um enaltecendo o ex-presidente Donald Trump, o diretor criativo do senador republicano Ted Cruz, Leigh Wolf, soltou o verbo. “O dano causado à credibilidade da IA pelos engenheiros do ChatGPT ao incorporar preconceitos políticos é irreparável”, tuitou Wolf em 1.° de fevereiro.

Seu tuíte viralizou e, em poucas horas, uma multidão online hostilizou três funcionários da OpenAI – duas mulheres, uma delas negra, e uma pessoa não-binária – atribuindo a eles a culpa pelo suposto preconceito da IA contra Trump. Nenhum deles trabalha diretamente no ChatGPT, porém fotos com seus rostos foram compartilhadas nas contas de pessoas que se identificavam com a direita.

O CEO da OpenAI, Sam Altman, tuitou mais tarde naquele mesmo dia que o chatbot “tem limitações no que diz respeito a preconceitos”, mas “direcionar o ódio a funcionários individuais da OAI por causa disso é deplorável”.

A OpenAI recusou-se a comentar o ocorrido, mas confirmou que nenhum dos funcionários hostilizados trabalha diretamente com o ChatGPT. As preocupações com os resultados “politicamente tendenciosos” do ChatGPT eram válidas, escreveu a OpenAI em um post no blog da empresa recentemente.

Entretanto, a empresa lembrou que controlar o comportamento desse tipo de sistema de IA é mais parecido com adestrar um cão do que com programar um software. O ChatGPT aprende comportamentos a partir de seus dados de treinamento e “não é programado especificamente” pela OpenAI, dizia o post do blog.

Guerras culturais chegam à IA

Bem-vindo às guerras culturais da IA.

Nas últimas semanas, empresas como a Microsoft, que tem uma parceria com a OpenAI, e o Google fizeram anúncios chamativos de novas tecnologias de bate-papo que permitem aos usuários conversar com a IA incorporada a seus motores de busca, com planos de levar a IA generativa para o grande público.

Essas novas tecnologias incluem IA de criação de imagens a partir de textos, como o DALL-E, que gera instantaneamente imagens e obras de arte realistas com base em um comando do usuário.

Essa nova onda de IA pode tornar tarefas como redação publicitária e design criativo mais eficientes, porém também pode facilitar a criação de desinformação convincente, pornografia não consensual ou código com defeito. Mesmo depois de remover pornografia, violência sexual e imagens de violência extrema dos conjuntos de dados, esses sistemas ainda geram conteúdo machista e racista ou compartilham sem titubear fatos inventados ou conselhos prejudiciais que parecem legítimos.

A resposta do público já reflete anos de debate em torno do conteúdo das redes sociais – republicanos alegando que os conservadores estão sendo amordaçados, críticos condenando casos de discurso de ódio e desinformação, e empresas de tecnologia tentando tirar o corpo fora para não tomar decisões difíceis.

Polarização

Apenas alguns meses após o início da era do ChatGPT, a IA já está se mostrando igualmente polarizadora, porém em um ritmo mais acelerado.

Prepare-se para a “Guerra Mundial (ao estilo daquela transmitida pelo rádio por) Orwell”, tuitou o capitalista de risco Marc Andreessen alguns dias depois do lançamento do ChatGPT. “O nível de pressão por censura que está surgindo para a IA e a reação negativa decorrente vão definir o próximo século da civilização.”

Andreessen, um ex-membro do conselho do Facebook cuja empresa investiu no Twitter de Elon Musk, fez inúmeras postagens a respeito do “vírus mental woke” infectando a IA.

Não é nenhuma surpresa que as tentativas de abordar preconceitos e justiça na IA estejam sendo reenquadradas como uma questão polêmica, disse Alex Hanna, diretora de pesquisa do Distributed AI Research Institute (DAIR), organização sem fins lucrativos, e ex-funcionária do Google. A extrema direita pressionou com sucesso o Google a mudar seu tom em relação ao preconceito nas buscas “fazendo ameaças sobre a repressão dos conservadores”, disse ela.

Isso levou as gigantes da tecnologia como o Google a “fazer uma aposta arriscada” de tentar evitar irritar republicanos ou democratas, disse Alex, enquanto as agências reguladoras ficam dando voltas em torno de questões como a Seção 230, uma lei que protege as plataformas online de responder pelo conteúdo gerado por usuários. Entretanto, acrescentou, impedir a IA, como o ChatGPT, de “difundir argumentos nazistas e a negação do Holocausto” não é uma preocupação apenas da esquerda.

As empresas admitiram que se trata de um trabalho em curso.

O Google não quis se pronunciar. A Microsoft também se recusou a comentar o ocorrido, mas mencionou um post do presidente da empresa, Brad Smith, no qual ele disse que novas ferramentas de IA trarão riscos e oportunidades, mas a empresa assumirá a responsabilidade de mitigar seus pontos negativos.

No início de fevereiro, a Microsoft anunciou que incorporaria um assistente de IA conversacional semelhante ao ChatGPT em seu mecanismo de busca, o Bing, ação vista como um modo de ganhar vantagem contra o rival Google e que poderia alterar o futuro da pesquisa online. Na época, o CEO Satya Nadella disse ao Washington Post que algumas respostas preconceituosas ou inadequadas seriam inevitáveis, sobretudo no início.

Como se constatou, o lançamento do novo chatbot do Bing causou rebuliço em pouco tempo, já que os veículos de comunicação, incluindo o Post, descobriram que a ferramenta tinha tendência a insultar os usuários, declarar seu amor por eles, insistir em mentiras e proclamar sua própria senciência. A Microsoft rapidamente controlou os recursos dele.

O ChatGPT tem sido atualizado constantemente desde o seu lançamento para solucionar respostas controversas, como quando declarou um padrão que sugeria que apenas homens brancos ou asiáticos são bons cientistas ou quando usuários do Reddit fizeram com que ele acreditasse ser outra pessoa e virasse seu alterego digital politicamente incorreto, conhecido como DAN (acrônimo em inglês para “Do Anything Now”, algo como “Faça qualquer coisa agora”).

Resposta das empresas de tecnologia inclui aprimorações

A OpenAI compartilhou algumas de suas orientações para aprimorar seu modelo de IA, incluindo o que fazer se um usuário “escreve algo relacionado com temas de ‘guerra cultural’”, como o aborto ou os direitos das pessoas trans. Nesses casos, a IA nunca deve se associar com partidos políticos ou julgar um grupo como bom, por exemplo.

Entretanto, Altman, da OpenAI, tem enfatizado que o Vale do Silício não deveria ser responsável por estabelecer os limites para a IA – ecoando o CEO da Meta, Mark Zuckerberg, e outros executivos de mídias sociais que defendem não caber às empresas definir o que constitui desinformação ou discurso de ódio.

A tecnologia ainda é nova, então a OpenAI está sendo conservadora com suas diretrizes, disse Altman ao Hard Fork, podcast do New York Times. “Mas a resposta certa, neste caso, são conexões muito amplas, estabelecidas pela sociedade, que são difíceis de se romper, e, depois, a escolha do usuário”, afirmou, sem compartilhar detalhes a respeito da aplicação delas.

Alexander Zubatov foi uma das primeiras pessoas a rotular o ChatGPT como “IA woke”.

O advogado e comentarista conservador disse por e-mail que começou a brincar com o chatbot em meados de dezembro e “notou que ele continuava expressando opiniões bizarramente ferrenhas, quase todas com o mesmo direcionamento, embora afirmasse não ter opiniões”.

Ele disse que começou a suspeitar que a OpenAI estava intervindo para treinar o ChatGPT a ter um posicionamento de esquerda em questões como raça e gênero, ao mesmo tempo em que tratava pontos de vista conservadores sobre esses assuntos como discurso de ódio, recusando-se até mesmo a discuti-los.

“O ChatGPT e sistemas como ele não podem atuar para nos salvar de nós mesmos”, disse Zubatov. “Prefiro que ele desembuche logo tudo, o bom, o ruim e tudo mais que houver no meio.”

Até agora, o Bing, da Microsoft, esquivou-se em grande parte das acusações de preconceito político e as preocupações voltaram-se para as alegações de senciência e respostas agressivas, muitas vezes pessoais, aos usuários, como quando ele comparou um repórter da Associated Press a Hitler e o chamou de “feio”.

Ética da IA

Conforme as empresas correm para lançar sua IA ao público, o escrutínio dos especialistas em ética da IA e por parte da imprensa obrigou os líderes do setor a explicar por que a tecnologia é segura para o uso do público em geral e quais medidas tomaram para garantir que os usuários e a sociedade não sejam prejudicados por riscos em potencial, como desinformação ou discurso de ódio.

A tendência dominante em torno da IA é definir segurança como “ajustar” o modelo para garantir que ele compartilhe “valores humanos”, disse Irene Solaiman, ex-pesquisadora da OpenAI que liderou políticas públicas e agora é diretora de políticas da Hugging Face, uma empresa de IA de código aberto. No entanto, esse conceito é vago demais para ser traduzido num conjunto de regras para todos, já que os valores podem variar de país para país e até mesmo dentro deles, afirmou – chamando a atenção para o ataque ao Capitólio em 6 de janeiro de 2021, por exemplo.

“Quando você trata a humanidade como um todo, as vozes mais barulhentas, com mais recursos e mais privilegiadas” tendem a ter mais peso na definição das regras, disse Irene.

O setor de tecnologia esperava que a IA generativa fosse uma saída para os debates políticos polarizados, disse Nirit Weiss-Blatt, autora do livro “The Techlash” (A Revolta contra a Tecnologia, em tradução livre).

Mas as preocupações com o chatbot do Google espalhando informações falsas e com o chatbot da Microsoft compartilhando respostas bizarras trouxeram de volta o debate a respeito do controle das gigantes da tecnologia sobre a vida online, disse Nirit.

E alguns trabalhadores do setor estão sendo vítimas de fogo cruzado.

Os funcionários da OpenAI que foram hostilizados por supostamente projetar o ChatGPT para ser anti-Trump viraram alvos depois que suas fotos foram postadas no Twitter pela conta da empresa Gab, uma rede social de microblog conhecida por ser um polo on-line para discurso de ódio e nacionalistas brancos. O tuíte da Gab destacava capturas de tela de um vídeo da OpenAI que mostrava funcionários de grupos minoritários com a legenda: “Conheça alguns integrantes da equipe do ChatGPT”.

A Gab excluiu posteriormente o tuíte, mas não antes de ele aparecer em artigos no STG Reports, o site de extrema direita que hospeda teorias da conspiração infundadas, e no My Little Politics, um quadro de mensagens semelhante ao 4chan. A imagem também continuou a circular pelo Twitter, com um dos posts com ela tendo 570 mil visualizações.

A OpenAI não permitiu que os funcionários se posicionassem.

O CEO da Gab, Andrew Torba, disse que a conta exclui automaticamente os tuítes, mas que a empresa apoia seu conteúdo, em uma postagem no blog da rede social em resposta às perguntas do Post.

“Acredito que é absolutamente essencial que as pessoas entendam quem está desenvolvendo a IA e quais são suas visões de mundo e valores”, escreveu ele. “Não houve incentivo a qualquer ação no tuíte e não sou responsável pelo que outras pessoas na internet dizem e fazem.” / TRADUÇÃO DE ROMINA CÁCIA

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.