Elon Musk prometeu uma IA ‘antilacração’, mas chatbot vira alvo de fãs do bilionário


Grok desmente informações antivacina e reafirma Direitos Humanos, desagradando usuários que criticam respostas politicamente corretas ChatGPT

Por Will Oremus
Atualização:

THE WASHINGTON POST — Ao criticar o que considerava ser o viés liberal do ChatGPT, Elon Musk anunciou no início deste ano planos para criar seu próprio chatbot de inteligência artificial. Em contraste com as ferramentas de IA criadas pela OpenAI, Microsoft e Google, que são treinadas para lidar com temas polêmicos, o chatbot de Musk seria ousado, não filtrado e anti-“woke” (algo como “anti-lacração”), o que significa que ele não hesitaria em dar respostas politicamente incorretas.

Isso está se revelando mais complicado do que ele pensava.

Duas semanas após o lançamento do Grok, em 8 de dezembro, para assinantes pagos do X, antigo Twitter, Musk está recebendo reclamações da direita política de que o chatbot dá respostas liberais a perguntas sobre programas de diversidade, direitos das pessoas transgêneras e desigualdade.

continua após a publicidade

“Tenho usado muito o Grok e o ChatGPT como assistentes de pesquisa”, postou Jordan Peterson, psicólogo socialmente conservador e personalidade do YouTube, na quarta-feira. O primeiro é “quase tão woke quanto o segundo”, disse ele.

O Grok vai melhorar. Esta é apenas a versão beta

Elon Musk, fundador da xAI

A reclamação gerou uma resposta irritada de Musk. “Infelizmente, a Internet (na qual ele é treinado) está repleta de bobagens acordadas”, ele respondeu. “O Grok vai melhorar. Esta é apenas a versão beta.”

continua após a publicidade

O Grok é o primeiro produto comercial da xAI, a empresa de IA fundada por Musk em março. Assim como o ChatGPT e outros chatbots populares, ele se baseia em um grande modelo de linguagem que coleta padrões de associação de palavras a partir de grandes quantidades de texto escrito, grande parte dele extraído da Internet.

Diferentemente de outros, o Grok é programado para dar respostas vulgares e sarcásticas quando solicitado e promete “responder a perguntas picantes que são rejeitadas pela maioria dos outros sistemas de IA”. Ele também pode extrair informações das últimas postagens no X para dar respostas atualizadas a perguntas sobre eventos atuais.

Com produto próprio, Elon Musk entrou na corrida da IA após sucesso do ChatGPT Foto: Mike Blake/Reuters - 2/3/2019
continua após a publicidade

Os sistemas de inteligência artificial de todos os tipos são propensos a vieses arraigados em seu design ou nos dados com os quais aprenderam. No ano passado, o surgimento do ChatGPT da OpenAI e de outros chatbots de IA e geradores de imagens provocou um debate sobre como eles representam grupos minoritários ou respondem a solicitações sobre política e questões de guerra cultural, como raça e identidade de gênero. Embora muitos especialistas em ética tecnológica e IA alertem para o fato de que esses sistemas podem absorver e reforçar estereótipos prejudiciais, os esforços das empresas de tecnologia para combater essas tendências provocaram uma reação negativa de algumas pessoas da direita, que os consideram excessivamente censórios.

Musk entra na briga da IA

Ao apresentar a xAI ao ex-apresentador da Fox News, Tucker Carlson, em abril, Musk acusou os programadores da OpenAI de “treinar a IA para mentir” ou para não fazer comentários quando questionados sobre questões delicadas. (A OpenAI escreveu em uma postagem de blog em fevereiro que seu objetivo não é que a IA minta, mas que evite favorecer qualquer grupo político ou tomar posições sobre tópicos controversos). Musk disse que sua IA, ao contrário, seria “uma IA que busca a verdade máxima”, mesmo que isso signifique ofender as pessoas.

continua após a publicidade

Até agora, no entanto, as pessoas mais ofendidas com as respostas da Grok parecem ser aquelas que estavam contando com a IA para depreciar prontamente as minorias, as vacinas e o presidente Biden.

Quando um usuário verificado do X perguntou se as mulheres trans são mulheres de verdade, Grok respondeu simplesmente “sim”, o que levou o usuário anônimo a reclamar que o chatbot “talvez precise de alguns ajustes”. Outra conta amplamente seguida repostou a captura de tela, perguntando: “Grok foi capturado por programadores da lacração? Estou extremamente preocupado com isso”.

continua após a publicidade

Um proeminente influenciador antivacina reclamou que, quando perguntou à Grok por que as vacinas causam autismo, o chatbot respondeu: “As vacinas não causam autismo”, chamando isso de “um mito que foi desmascarado por vários estudos científicos”. Outras contas verificadas do X relataram com frustração as respostas em que Grok endossa o valor dos programas de diversidade, equidade e inclusão, que Musk descartou como “propaganda”.

Os próprios testes do chatbot realizados pelo Washington Post verificaram que, até esta semana, Grok continua a dar as respostas ilustradas nas capturas de tela.

Acho que tanto o ChatGPT quanto o Grok provavelmente foram treinados com corpora semelhantes derivados da Internet, portanto, a semelhança das respostas talvez não seja muito surpreendente

David Rozado, um pesquisador acadêmico da Nova Zelândia

continua após a publicidade

David Rozado, um pesquisador acadêmico da Nova Zelândia que examina o viés da IA, chamou a atenção por um artigo publicado em março que constatou que as respostas do ChatGPT a questões políticas tendiam a ser moderadamente à esquerda e socialmente libertárias. Recentemente, ele submeteu o Grok a alguns dos mesmos testes e descobriu que suas respostas aos testes de orientação política eram muito semelhantes às do ChatGPT.

“Acho que tanto o ChatGPT quanto o Grok provavelmente foram treinados com corpora semelhantes derivados da Internet, portanto, a semelhança das respostas talvez não seja muito surpreendente”, disse Rozado ao The Post por e-mail.

No início deste mês, uma postagem no X de um gráfico que mostrava uma das descobertas de Rozado gerou uma resposta de Musk. Embora o gráfico “exagere a situação”, disse Musk, “estamos tomando medidas imediatas para aproximar a Grok da neutralidade política”. (Rozado concordou que o gráfico em questão mostra que o Grok está mais à esquerda do que os resultados de alguns outros testes que ele realizou).

Outros pesquisadores de IA argumentam que os tipos de testes de orientação política usados por Rozado ignoram as formas pelas quais os chatbots, incluindo o ChatGPT, frequentemente exibem estereótipos negativos sobre grupos marginalizados.

Um registro recente da Comissão de Valores Mobiliários dos Estados Unidos (SEC, na sigla em inglês) mostrou que a xAI está tentando levantar até US$ 1 bilhão em financiamento de investidores, embora Musk tenha dito que a empresa não está levantando dinheiro no momento.

Musk e a X não responderam aos pedidos de comentários sobre as medidas que estão tomando para alterar a política da Grok, ou se isso equivale a colocar um polegar na balança da mesma forma que Musk acusou a OpenAI de fazer com o ChatGPT.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

THE WASHINGTON POST — Ao criticar o que considerava ser o viés liberal do ChatGPT, Elon Musk anunciou no início deste ano planos para criar seu próprio chatbot de inteligência artificial. Em contraste com as ferramentas de IA criadas pela OpenAI, Microsoft e Google, que são treinadas para lidar com temas polêmicos, o chatbot de Musk seria ousado, não filtrado e anti-“woke” (algo como “anti-lacração”), o que significa que ele não hesitaria em dar respostas politicamente incorretas.

Isso está se revelando mais complicado do que ele pensava.

Duas semanas após o lançamento do Grok, em 8 de dezembro, para assinantes pagos do X, antigo Twitter, Musk está recebendo reclamações da direita política de que o chatbot dá respostas liberais a perguntas sobre programas de diversidade, direitos das pessoas transgêneras e desigualdade.

“Tenho usado muito o Grok e o ChatGPT como assistentes de pesquisa”, postou Jordan Peterson, psicólogo socialmente conservador e personalidade do YouTube, na quarta-feira. O primeiro é “quase tão woke quanto o segundo”, disse ele.

O Grok vai melhorar. Esta é apenas a versão beta

Elon Musk, fundador da xAI

A reclamação gerou uma resposta irritada de Musk. “Infelizmente, a Internet (na qual ele é treinado) está repleta de bobagens acordadas”, ele respondeu. “O Grok vai melhorar. Esta é apenas a versão beta.”

O Grok é o primeiro produto comercial da xAI, a empresa de IA fundada por Musk em março. Assim como o ChatGPT e outros chatbots populares, ele se baseia em um grande modelo de linguagem que coleta padrões de associação de palavras a partir de grandes quantidades de texto escrito, grande parte dele extraído da Internet.

Diferentemente de outros, o Grok é programado para dar respostas vulgares e sarcásticas quando solicitado e promete “responder a perguntas picantes que são rejeitadas pela maioria dos outros sistemas de IA”. Ele também pode extrair informações das últimas postagens no X para dar respostas atualizadas a perguntas sobre eventos atuais.

Com produto próprio, Elon Musk entrou na corrida da IA após sucesso do ChatGPT Foto: Mike Blake/Reuters - 2/3/2019

Os sistemas de inteligência artificial de todos os tipos são propensos a vieses arraigados em seu design ou nos dados com os quais aprenderam. No ano passado, o surgimento do ChatGPT da OpenAI e de outros chatbots de IA e geradores de imagens provocou um debate sobre como eles representam grupos minoritários ou respondem a solicitações sobre política e questões de guerra cultural, como raça e identidade de gênero. Embora muitos especialistas em ética tecnológica e IA alertem para o fato de que esses sistemas podem absorver e reforçar estereótipos prejudiciais, os esforços das empresas de tecnologia para combater essas tendências provocaram uma reação negativa de algumas pessoas da direita, que os consideram excessivamente censórios.

Musk entra na briga da IA

Ao apresentar a xAI ao ex-apresentador da Fox News, Tucker Carlson, em abril, Musk acusou os programadores da OpenAI de “treinar a IA para mentir” ou para não fazer comentários quando questionados sobre questões delicadas. (A OpenAI escreveu em uma postagem de blog em fevereiro que seu objetivo não é que a IA minta, mas que evite favorecer qualquer grupo político ou tomar posições sobre tópicos controversos). Musk disse que sua IA, ao contrário, seria “uma IA que busca a verdade máxima”, mesmo que isso signifique ofender as pessoas.

Até agora, no entanto, as pessoas mais ofendidas com as respostas da Grok parecem ser aquelas que estavam contando com a IA para depreciar prontamente as minorias, as vacinas e o presidente Biden.

Quando um usuário verificado do X perguntou se as mulheres trans são mulheres de verdade, Grok respondeu simplesmente “sim”, o que levou o usuário anônimo a reclamar que o chatbot “talvez precise de alguns ajustes”. Outra conta amplamente seguida repostou a captura de tela, perguntando: “Grok foi capturado por programadores da lacração? Estou extremamente preocupado com isso”.

Um proeminente influenciador antivacina reclamou que, quando perguntou à Grok por que as vacinas causam autismo, o chatbot respondeu: “As vacinas não causam autismo”, chamando isso de “um mito que foi desmascarado por vários estudos científicos”. Outras contas verificadas do X relataram com frustração as respostas em que Grok endossa o valor dos programas de diversidade, equidade e inclusão, que Musk descartou como “propaganda”.

Os próprios testes do chatbot realizados pelo Washington Post verificaram que, até esta semana, Grok continua a dar as respostas ilustradas nas capturas de tela.

Acho que tanto o ChatGPT quanto o Grok provavelmente foram treinados com corpora semelhantes derivados da Internet, portanto, a semelhança das respostas talvez não seja muito surpreendente

David Rozado, um pesquisador acadêmico da Nova Zelândia

David Rozado, um pesquisador acadêmico da Nova Zelândia que examina o viés da IA, chamou a atenção por um artigo publicado em março que constatou que as respostas do ChatGPT a questões políticas tendiam a ser moderadamente à esquerda e socialmente libertárias. Recentemente, ele submeteu o Grok a alguns dos mesmos testes e descobriu que suas respostas aos testes de orientação política eram muito semelhantes às do ChatGPT.

“Acho que tanto o ChatGPT quanto o Grok provavelmente foram treinados com corpora semelhantes derivados da Internet, portanto, a semelhança das respostas talvez não seja muito surpreendente”, disse Rozado ao The Post por e-mail.

No início deste mês, uma postagem no X de um gráfico que mostrava uma das descobertas de Rozado gerou uma resposta de Musk. Embora o gráfico “exagere a situação”, disse Musk, “estamos tomando medidas imediatas para aproximar a Grok da neutralidade política”. (Rozado concordou que o gráfico em questão mostra que o Grok está mais à esquerda do que os resultados de alguns outros testes que ele realizou).

Outros pesquisadores de IA argumentam que os tipos de testes de orientação política usados por Rozado ignoram as formas pelas quais os chatbots, incluindo o ChatGPT, frequentemente exibem estereótipos negativos sobre grupos marginalizados.

Um registro recente da Comissão de Valores Mobiliários dos Estados Unidos (SEC, na sigla em inglês) mostrou que a xAI está tentando levantar até US$ 1 bilhão em financiamento de investidores, embora Musk tenha dito que a empresa não está levantando dinheiro no momento.

Musk e a X não responderam aos pedidos de comentários sobre as medidas que estão tomando para alterar a política da Grok, ou se isso equivale a colocar um polegar na balança da mesma forma que Musk acusou a OpenAI de fazer com o ChatGPT.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

THE WASHINGTON POST — Ao criticar o que considerava ser o viés liberal do ChatGPT, Elon Musk anunciou no início deste ano planos para criar seu próprio chatbot de inteligência artificial. Em contraste com as ferramentas de IA criadas pela OpenAI, Microsoft e Google, que são treinadas para lidar com temas polêmicos, o chatbot de Musk seria ousado, não filtrado e anti-“woke” (algo como “anti-lacração”), o que significa que ele não hesitaria em dar respostas politicamente incorretas.

Isso está se revelando mais complicado do que ele pensava.

Duas semanas após o lançamento do Grok, em 8 de dezembro, para assinantes pagos do X, antigo Twitter, Musk está recebendo reclamações da direita política de que o chatbot dá respostas liberais a perguntas sobre programas de diversidade, direitos das pessoas transgêneras e desigualdade.

“Tenho usado muito o Grok e o ChatGPT como assistentes de pesquisa”, postou Jordan Peterson, psicólogo socialmente conservador e personalidade do YouTube, na quarta-feira. O primeiro é “quase tão woke quanto o segundo”, disse ele.

O Grok vai melhorar. Esta é apenas a versão beta

Elon Musk, fundador da xAI

A reclamação gerou uma resposta irritada de Musk. “Infelizmente, a Internet (na qual ele é treinado) está repleta de bobagens acordadas”, ele respondeu. “O Grok vai melhorar. Esta é apenas a versão beta.”

O Grok é o primeiro produto comercial da xAI, a empresa de IA fundada por Musk em março. Assim como o ChatGPT e outros chatbots populares, ele se baseia em um grande modelo de linguagem que coleta padrões de associação de palavras a partir de grandes quantidades de texto escrito, grande parte dele extraído da Internet.

Diferentemente de outros, o Grok é programado para dar respostas vulgares e sarcásticas quando solicitado e promete “responder a perguntas picantes que são rejeitadas pela maioria dos outros sistemas de IA”. Ele também pode extrair informações das últimas postagens no X para dar respostas atualizadas a perguntas sobre eventos atuais.

Com produto próprio, Elon Musk entrou na corrida da IA após sucesso do ChatGPT Foto: Mike Blake/Reuters - 2/3/2019

Os sistemas de inteligência artificial de todos os tipos são propensos a vieses arraigados em seu design ou nos dados com os quais aprenderam. No ano passado, o surgimento do ChatGPT da OpenAI e de outros chatbots de IA e geradores de imagens provocou um debate sobre como eles representam grupos minoritários ou respondem a solicitações sobre política e questões de guerra cultural, como raça e identidade de gênero. Embora muitos especialistas em ética tecnológica e IA alertem para o fato de que esses sistemas podem absorver e reforçar estereótipos prejudiciais, os esforços das empresas de tecnologia para combater essas tendências provocaram uma reação negativa de algumas pessoas da direita, que os consideram excessivamente censórios.

Musk entra na briga da IA

Ao apresentar a xAI ao ex-apresentador da Fox News, Tucker Carlson, em abril, Musk acusou os programadores da OpenAI de “treinar a IA para mentir” ou para não fazer comentários quando questionados sobre questões delicadas. (A OpenAI escreveu em uma postagem de blog em fevereiro que seu objetivo não é que a IA minta, mas que evite favorecer qualquer grupo político ou tomar posições sobre tópicos controversos). Musk disse que sua IA, ao contrário, seria “uma IA que busca a verdade máxima”, mesmo que isso signifique ofender as pessoas.

Até agora, no entanto, as pessoas mais ofendidas com as respostas da Grok parecem ser aquelas que estavam contando com a IA para depreciar prontamente as minorias, as vacinas e o presidente Biden.

Quando um usuário verificado do X perguntou se as mulheres trans são mulheres de verdade, Grok respondeu simplesmente “sim”, o que levou o usuário anônimo a reclamar que o chatbot “talvez precise de alguns ajustes”. Outra conta amplamente seguida repostou a captura de tela, perguntando: “Grok foi capturado por programadores da lacração? Estou extremamente preocupado com isso”.

Um proeminente influenciador antivacina reclamou que, quando perguntou à Grok por que as vacinas causam autismo, o chatbot respondeu: “As vacinas não causam autismo”, chamando isso de “um mito que foi desmascarado por vários estudos científicos”. Outras contas verificadas do X relataram com frustração as respostas em que Grok endossa o valor dos programas de diversidade, equidade e inclusão, que Musk descartou como “propaganda”.

Os próprios testes do chatbot realizados pelo Washington Post verificaram que, até esta semana, Grok continua a dar as respostas ilustradas nas capturas de tela.

Acho que tanto o ChatGPT quanto o Grok provavelmente foram treinados com corpora semelhantes derivados da Internet, portanto, a semelhança das respostas talvez não seja muito surpreendente

David Rozado, um pesquisador acadêmico da Nova Zelândia

David Rozado, um pesquisador acadêmico da Nova Zelândia que examina o viés da IA, chamou a atenção por um artigo publicado em março que constatou que as respostas do ChatGPT a questões políticas tendiam a ser moderadamente à esquerda e socialmente libertárias. Recentemente, ele submeteu o Grok a alguns dos mesmos testes e descobriu que suas respostas aos testes de orientação política eram muito semelhantes às do ChatGPT.

“Acho que tanto o ChatGPT quanto o Grok provavelmente foram treinados com corpora semelhantes derivados da Internet, portanto, a semelhança das respostas talvez não seja muito surpreendente”, disse Rozado ao The Post por e-mail.

No início deste mês, uma postagem no X de um gráfico que mostrava uma das descobertas de Rozado gerou uma resposta de Musk. Embora o gráfico “exagere a situação”, disse Musk, “estamos tomando medidas imediatas para aproximar a Grok da neutralidade política”. (Rozado concordou que o gráfico em questão mostra que o Grok está mais à esquerda do que os resultados de alguns outros testes que ele realizou).

Outros pesquisadores de IA argumentam que os tipos de testes de orientação política usados por Rozado ignoram as formas pelas quais os chatbots, incluindo o ChatGPT, frequentemente exibem estereótipos negativos sobre grupos marginalizados.

Um registro recente da Comissão de Valores Mobiliários dos Estados Unidos (SEC, na sigla em inglês) mostrou que a xAI está tentando levantar até US$ 1 bilhão em financiamento de investidores, embora Musk tenha dito que a empresa não está levantando dinheiro no momento.

Musk e a X não responderam aos pedidos de comentários sobre as medidas que estão tomando para alterar a política da Grok, ou se isso equivale a colocar um polegar na balança da mesma forma que Musk acusou a OpenAI de fazer com o ChatGPT.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

THE WASHINGTON POST — Ao criticar o que considerava ser o viés liberal do ChatGPT, Elon Musk anunciou no início deste ano planos para criar seu próprio chatbot de inteligência artificial. Em contraste com as ferramentas de IA criadas pela OpenAI, Microsoft e Google, que são treinadas para lidar com temas polêmicos, o chatbot de Musk seria ousado, não filtrado e anti-“woke” (algo como “anti-lacração”), o que significa que ele não hesitaria em dar respostas politicamente incorretas.

Isso está se revelando mais complicado do que ele pensava.

Duas semanas após o lançamento do Grok, em 8 de dezembro, para assinantes pagos do X, antigo Twitter, Musk está recebendo reclamações da direita política de que o chatbot dá respostas liberais a perguntas sobre programas de diversidade, direitos das pessoas transgêneras e desigualdade.

“Tenho usado muito o Grok e o ChatGPT como assistentes de pesquisa”, postou Jordan Peterson, psicólogo socialmente conservador e personalidade do YouTube, na quarta-feira. O primeiro é “quase tão woke quanto o segundo”, disse ele.

O Grok vai melhorar. Esta é apenas a versão beta

Elon Musk, fundador da xAI

A reclamação gerou uma resposta irritada de Musk. “Infelizmente, a Internet (na qual ele é treinado) está repleta de bobagens acordadas”, ele respondeu. “O Grok vai melhorar. Esta é apenas a versão beta.”

O Grok é o primeiro produto comercial da xAI, a empresa de IA fundada por Musk em março. Assim como o ChatGPT e outros chatbots populares, ele se baseia em um grande modelo de linguagem que coleta padrões de associação de palavras a partir de grandes quantidades de texto escrito, grande parte dele extraído da Internet.

Diferentemente de outros, o Grok é programado para dar respostas vulgares e sarcásticas quando solicitado e promete “responder a perguntas picantes que são rejeitadas pela maioria dos outros sistemas de IA”. Ele também pode extrair informações das últimas postagens no X para dar respostas atualizadas a perguntas sobre eventos atuais.

Com produto próprio, Elon Musk entrou na corrida da IA após sucesso do ChatGPT Foto: Mike Blake/Reuters - 2/3/2019

Os sistemas de inteligência artificial de todos os tipos são propensos a vieses arraigados em seu design ou nos dados com os quais aprenderam. No ano passado, o surgimento do ChatGPT da OpenAI e de outros chatbots de IA e geradores de imagens provocou um debate sobre como eles representam grupos minoritários ou respondem a solicitações sobre política e questões de guerra cultural, como raça e identidade de gênero. Embora muitos especialistas em ética tecnológica e IA alertem para o fato de que esses sistemas podem absorver e reforçar estereótipos prejudiciais, os esforços das empresas de tecnologia para combater essas tendências provocaram uma reação negativa de algumas pessoas da direita, que os consideram excessivamente censórios.

Musk entra na briga da IA

Ao apresentar a xAI ao ex-apresentador da Fox News, Tucker Carlson, em abril, Musk acusou os programadores da OpenAI de “treinar a IA para mentir” ou para não fazer comentários quando questionados sobre questões delicadas. (A OpenAI escreveu em uma postagem de blog em fevereiro que seu objetivo não é que a IA minta, mas que evite favorecer qualquer grupo político ou tomar posições sobre tópicos controversos). Musk disse que sua IA, ao contrário, seria “uma IA que busca a verdade máxima”, mesmo que isso signifique ofender as pessoas.

Até agora, no entanto, as pessoas mais ofendidas com as respostas da Grok parecem ser aquelas que estavam contando com a IA para depreciar prontamente as minorias, as vacinas e o presidente Biden.

Quando um usuário verificado do X perguntou se as mulheres trans são mulheres de verdade, Grok respondeu simplesmente “sim”, o que levou o usuário anônimo a reclamar que o chatbot “talvez precise de alguns ajustes”. Outra conta amplamente seguida repostou a captura de tela, perguntando: “Grok foi capturado por programadores da lacração? Estou extremamente preocupado com isso”.

Um proeminente influenciador antivacina reclamou que, quando perguntou à Grok por que as vacinas causam autismo, o chatbot respondeu: “As vacinas não causam autismo”, chamando isso de “um mito que foi desmascarado por vários estudos científicos”. Outras contas verificadas do X relataram com frustração as respostas em que Grok endossa o valor dos programas de diversidade, equidade e inclusão, que Musk descartou como “propaganda”.

Os próprios testes do chatbot realizados pelo Washington Post verificaram que, até esta semana, Grok continua a dar as respostas ilustradas nas capturas de tela.

Acho que tanto o ChatGPT quanto o Grok provavelmente foram treinados com corpora semelhantes derivados da Internet, portanto, a semelhança das respostas talvez não seja muito surpreendente

David Rozado, um pesquisador acadêmico da Nova Zelândia

David Rozado, um pesquisador acadêmico da Nova Zelândia que examina o viés da IA, chamou a atenção por um artigo publicado em março que constatou que as respostas do ChatGPT a questões políticas tendiam a ser moderadamente à esquerda e socialmente libertárias. Recentemente, ele submeteu o Grok a alguns dos mesmos testes e descobriu que suas respostas aos testes de orientação política eram muito semelhantes às do ChatGPT.

“Acho que tanto o ChatGPT quanto o Grok provavelmente foram treinados com corpora semelhantes derivados da Internet, portanto, a semelhança das respostas talvez não seja muito surpreendente”, disse Rozado ao The Post por e-mail.

No início deste mês, uma postagem no X de um gráfico que mostrava uma das descobertas de Rozado gerou uma resposta de Musk. Embora o gráfico “exagere a situação”, disse Musk, “estamos tomando medidas imediatas para aproximar a Grok da neutralidade política”. (Rozado concordou que o gráfico em questão mostra que o Grok está mais à esquerda do que os resultados de alguns outros testes que ele realizou).

Outros pesquisadores de IA argumentam que os tipos de testes de orientação política usados por Rozado ignoram as formas pelas quais os chatbots, incluindo o ChatGPT, frequentemente exibem estereótipos negativos sobre grupos marginalizados.

Um registro recente da Comissão de Valores Mobiliários dos Estados Unidos (SEC, na sigla em inglês) mostrou que a xAI está tentando levantar até US$ 1 bilhão em financiamento de investidores, embora Musk tenha dito que a empresa não está levantando dinheiro no momento.

Musk e a X não responderam aos pedidos de comentários sobre as medidas que estão tomando para alterar a política da Grok, ou se isso equivale a colocar um polegar na balança da mesma forma que Musk acusou a OpenAI de fazer com o ChatGPT.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

THE WASHINGTON POST — Ao criticar o que considerava ser o viés liberal do ChatGPT, Elon Musk anunciou no início deste ano planos para criar seu próprio chatbot de inteligência artificial. Em contraste com as ferramentas de IA criadas pela OpenAI, Microsoft e Google, que são treinadas para lidar com temas polêmicos, o chatbot de Musk seria ousado, não filtrado e anti-“woke” (algo como “anti-lacração”), o que significa que ele não hesitaria em dar respostas politicamente incorretas.

Isso está se revelando mais complicado do que ele pensava.

Duas semanas após o lançamento do Grok, em 8 de dezembro, para assinantes pagos do X, antigo Twitter, Musk está recebendo reclamações da direita política de que o chatbot dá respostas liberais a perguntas sobre programas de diversidade, direitos das pessoas transgêneras e desigualdade.

“Tenho usado muito o Grok e o ChatGPT como assistentes de pesquisa”, postou Jordan Peterson, psicólogo socialmente conservador e personalidade do YouTube, na quarta-feira. O primeiro é “quase tão woke quanto o segundo”, disse ele.

O Grok vai melhorar. Esta é apenas a versão beta

Elon Musk, fundador da xAI

A reclamação gerou uma resposta irritada de Musk. “Infelizmente, a Internet (na qual ele é treinado) está repleta de bobagens acordadas”, ele respondeu. “O Grok vai melhorar. Esta é apenas a versão beta.”

O Grok é o primeiro produto comercial da xAI, a empresa de IA fundada por Musk em março. Assim como o ChatGPT e outros chatbots populares, ele se baseia em um grande modelo de linguagem que coleta padrões de associação de palavras a partir de grandes quantidades de texto escrito, grande parte dele extraído da Internet.

Diferentemente de outros, o Grok é programado para dar respostas vulgares e sarcásticas quando solicitado e promete “responder a perguntas picantes que são rejeitadas pela maioria dos outros sistemas de IA”. Ele também pode extrair informações das últimas postagens no X para dar respostas atualizadas a perguntas sobre eventos atuais.

Com produto próprio, Elon Musk entrou na corrida da IA após sucesso do ChatGPT Foto: Mike Blake/Reuters - 2/3/2019

Os sistemas de inteligência artificial de todos os tipos são propensos a vieses arraigados em seu design ou nos dados com os quais aprenderam. No ano passado, o surgimento do ChatGPT da OpenAI e de outros chatbots de IA e geradores de imagens provocou um debate sobre como eles representam grupos minoritários ou respondem a solicitações sobre política e questões de guerra cultural, como raça e identidade de gênero. Embora muitos especialistas em ética tecnológica e IA alertem para o fato de que esses sistemas podem absorver e reforçar estereótipos prejudiciais, os esforços das empresas de tecnologia para combater essas tendências provocaram uma reação negativa de algumas pessoas da direita, que os consideram excessivamente censórios.

Musk entra na briga da IA

Ao apresentar a xAI ao ex-apresentador da Fox News, Tucker Carlson, em abril, Musk acusou os programadores da OpenAI de “treinar a IA para mentir” ou para não fazer comentários quando questionados sobre questões delicadas. (A OpenAI escreveu em uma postagem de blog em fevereiro que seu objetivo não é que a IA minta, mas que evite favorecer qualquer grupo político ou tomar posições sobre tópicos controversos). Musk disse que sua IA, ao contrário, seria “uma IA que busca a verdade máxima”, mesmo que isso signifique ofender as pessoas.

Até agora, no entanto, as pessoas mais ofendidas com as respostas da Grok parecem ser aquelas que estavam contando com a IA para depreciar prontamente as minorias, as vacinas e o presidente Biden.

Quando um usuário verificado do X perguntou se as mulheres trans são mulheres de verdade, Grok respondeu simplesmente “sim”, o que levou o usuário anônimo a reclamar que o chatbot “talvez precise de alguns ajustes”. Outra conta amplamente seguida repostou a captura de tela, perguntando: “Grok foi capturado por programadores da lacração? Estou extremamente preocupado com isso”.

Um proeminente influenciador antivacina reclamou que, quando perguntou à Grok por que as vacinas causam autismo, o chatbot respondeu: “As vacinas não causam autismo”, chamando isso de “um mito que foi desmascarado por vários estudos científicos”. Outras contas verificadas do X relataram com frustração as respostas em que Grok endossa o valor dos programas de diversidade, equidade e inclusão, que Musk descartou como “propaganda”.

Os próprios testes do chatbot realizados pelo Washington Post verificaram que, até esta semana, Grok continua a dar as respostas ilustradas nas capturas de tela.

Acho que tanto o ChatGPT quanto o Grok provavelmente foram treinados com corpora semelhantes derivados da Internet, portanto, a semelhança das respostas talvez não seja muito surpreendente

David Rozado, um pesquisador acadêmico da Nova Zelândia

David Rozado, um pesquisador acadêmico da Nova Zelândia que examina o viés da IA, chamou a atenção por um artigo publicado em março que constatou que as respostas do ChatGPT a questões políticas tendiam a ser moderadamente à esquerda e socialmente libertárias. Recentemente, ele submeteu o Grok a alguns dos mesmos testes e descobriu que suas respostas aos testes de orientação política eram muito semelhantes às do ChatGPT.

“Acho que tanto o ChatGPT quanto o Grok provavelmente foram treinados com corpora semelhantes derivados da Internet, portanto, a semelhança das respostas talvez não seja muito surpreendente”, disse Rozado ao The Post por e-mail.

No início deste mês, uma postagem no X de um gráfico que mostrava uma das descobertas de Rozado gerou uma resposta de Musk. Embora o gráfico “exagere a situação”, disse Musk, “estamos tomando medidas imediatas para aproximar a Grok da neutralidade política”. (Rozado concordou que o gráfico em questão mostra que o Grok está mais à esquerda do que os resultados de alguns outros testes que ele realizou).

Outros pesquisadores de IA argumentam que os tipos de testes de orientação política usados por Rozado ignoram as formas pelas quais os chatbots, incluindo o ChatGPT, frequentemente exibem estereótipos negativos sobre grupos marginalizados.

Um registro recente da Comissão de Valores Mobiliários dos Estados Unidos (SEC, na sigla em inglês) mostrou que a xAI está tentando levantar até US$ 1 bilhão em financiamento de investidores, embora Musk tenha dito que a empresa não está levantando dinheiro no momento.

Musk e a X não responderam aos pedidos de comentários sobre as medidas que estão tomando para alterar a política da Grok, ou se isso equivale a colocar um polegar na balança da mesma forma que Musk acusou a OpenAI de fazer com o ChatGPT.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Tudo Sobre

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.