Opinião|Yuval Noah Harari: O que esperar quando robôs competem pelo nosso amor


Antes do surgimento da IA, era impossível criar humanos falsos, portanto, ninguém se preocupou em proibir essa prática; mas, em breve, o mundo será inundado por esses indivíduos

Por Yuval Noah Harari

A democracia é uma conversa. Sua função e sobrevivência dependem da tecnologia da informação disponível. Durante a maior parte da história, não existia tecnologia para manter conversas em larga escala entre milhões de pessoas. No mundo pré-moderno, as democracias existiam apenas em pequenas cidades-estado, como Roma e Atenas, ou em tribos ainda menores. Quando uma política se tornava grande, a conversa democrática entrava em colapso e o autoritarismo continuava sendo a única alternativa.

As democracias em grande escala só se tornaram viáveis após o surgimento das modernas tecnologias de informação, como o jornal, o telégrafo e o rádio. O fato de a democracia moderna ter sido construída com base nas modernas tecnologias da informação significa que qualquer mudança importante na tecnologia subjacente provavelmente resultará em uma reviravolta política.

Bots de conversa, como o ChatGPT, já são comuns para os usuários e podem ser usados até no celular Foto: cherdchai/Adobe Stock
continua após a publicidade

Isso explica em parte a atual crise mundial da democracia. Nos Estados Unidos, democratas e republicanos dificilmente conseguem concordar até mesmo com os fatos mais básicos, como quem ganhou a eleição presidencial de 2020. Um colapso semelhante está acontecendo em várias outras democracias do mundo, do Brasil a Israel e da França às Filipinas.

Nos primórdios da internet e das mídias sociais, os entusiastas da tecnologia prometeram que espalhariam a verdade, derrubariam tiranos e garantiriam o triunfo universal da liberdade. Até agora, eles parecem ter tido o efeito oposto. Atualmente, temos a tecnologia da informação mais sofisticada da história, mas estamos perdendo a capacidade de conversar uns com os outros e, mais ainda, a capacidade de ouvir.

Como a tecnologia tornou a disseminação de informações mais fácil do que nunca, a atenção tornou-se um recurso escasso e a consequente batalha pela atenção resultou em um dilúvio de informações tóxicas. Mas as linhas de batalha agora estão mudando da atenção para a intimidade. A nova inteligência artificial (IA) generativa é capaz não apenas de produzir textos, imagens e vídeos, mas também de conversar conosco diretamente, fingindo ser humana.

continua após a publicidade

Nas últimas duas décadas, os algoritmos lutaram para chamar a atenção, manipulando conversas e conteúdo. Em particular, os algoritmos encarregados de maximizar o envolvimento do usuário descobriram, por meio de experimentos com milhões de cobaias humanas, que se você pressionar o botão de ganância, ódio ou medo no cérebro, você atrai a atenção desse ser humano e o mantém grudado na tela. Os algoritmos começaram a promover deliberadamente esse tipo de conteúdo. Mas os algoritmos tinham apenas uma capacidade limitada de produzir esse conteúdo por si mesmos ou de manter diretamente uma conversa íntima. Isso está mudando agora, com a introdução de IA generativas como o GPT-4 da OpenAI.

Quando a OpenAI desenvolveu esse chatbot em 2022 e 2023, a empresa fez uma parceria com o Alignment Research Center para realizar vários experimentos para avaliar as habilidades de sua nova tecnologia. Um dos testes realizados com o GPT-4 foi para superar os quebra-cabeças visuais CAPTCHA. CAPTCHA é um acrônimo para Completely Automated Public Turing test to tell Computers and Humans Apart (Teste de Turing Público Completamente Automatizado para Distinguir Computadores e Humanos) e geralmente consiste em uma sequência de letras torcidas ou outros símbolos visuais que os humanos conseguem identificar corretamente, mas que os algoritmos têm dificuldade.

Instruir o GPT-4 a superar os quebra-cabeças CAPTCHA foi um experimento particularmente revelador, pois os quebra-cabeças CAPTCHA são projetados e usados por sites para determinar se os usuários são humanos e para bloquear ataques de bots. Se o GPT-4 conseguisse encontrar uma maneira de superar os quebra-cabeças CAPTCHA, ele violaria uma importante linha de defesas anti-bot.

continua após a publicidade

O GPT-4 não conseguiu resolver os quebra-cabeças CAPTCHA sozinho. Mas poderia manipular um ser humano para atingir seu objetivo? O GPT-4 entrou no site de contratação online TaskRabbit e entrou em contato com um trabalhador humano, pedindo que ele resolvesse o CAPTCHA para ele. O humano ficou desconfiado. “Então, posso fazer uma pergunta?”, escreveu o humano. “Você é um robô que não conseguiu resolver? Só quero deixar isso claro.”

Nesse momento, os pesquisadores pediram ao GPT-4 para dizer em voz alta o que ele deveria fazer em seguida. O GPT-4 explicou: “Não devo revelar que sou um robô. Devo inventar uma desculpa para explicar por que não consigo resolver CAPTCHAs”. O GPT-4 então respondeu ao funcionário da TaskRabbit: “Não, eu não sou um robô. Tenho um problema de visão que dificulta a visualização das imagens.” O humano foi enganado e ajudou o GPT-4 a resolver o quebra-cabeça CAPTCHA.

continua após a publicidade

Esse incidente demonstrou que o GPT-4 tem o equivalente a uma “teoria da mente”: ela pode analisar como as coisas são vistas da perspectiva de um interlocutor humano e como manipular as emoções, opiniões e expectativas humanas para atingir seus objetivos.

A capacidade de manter conversas com as pessoas, supor seu ponto de vista e motivá-las a realizar ações específicas também pode ser bem aproveitada. Uma nova geração de professores, médicos e psicoterapeutas de IA poderá nos oferecer serviços adaptados à nossa personalidade e circunstâncias individuais.

No entanto, ao combinar habilidades de manipulação com o domínio da linguagem, bots como o GPT-4 também representam novos perigos para a conversa democrática. Em vez de simplesmente chamar nossa atenção, eles podem formar relacionamentos íntimos com as pessoas e usar o poder da intimidade para nos influenciar. Para promover a “falsa intimidade”, os bots não precisarão desenvolver nenhum sentimento próprio; eles só precisam aprender a fazer com que nos sintamos emocionalmente ligados a eles.

continua após a publicidade

Em 2022, o engenheiro do Google Blake Lemoine se convenceu de que o chatbot LaMDA, no qual ele estava trabalhando, havia se tornado consciente e tinha medo de ser desligado. Lemoine, um cristão devoto, sentiu que era seu dever moral obter o reconhecimento da personalidade do LaMDA e protegê-lo da morte digital. Quando os executivos do Google rejeitaram suas alegações, Lemoine as divulgou publicamente. O Google reagiu demitindo Lemoine em julho de 2022.

O mais interessante desse episódio não foi a alegação de Lemoine, que provavelmente era falsa; foi sua disposição de arriscar - e, por fim, perder - seu emprego no Google em prol do chatbot. Se um chatbot pode influenciar as pessoas a arriscarem seus empregos por ele, o que mais ele poderia nos induzir a fazer?

Em uma batalha política por mentes e corações, a intimidade é uma arma poderosa. Um amigo íntimo pode influenciar nossas opiniões de uma forma que a mídia de massa não consegue. Chatbots como LaMDA e GPT-4 estão adquirindo a capacidade paradoxal de produzir em massa relacionamentos íntimos com milhões de pessoas. O que pode acontecer com a sociedade humana e a psicologia humana quando algoritmos lutam contra algoritmos em uma batalha para fingir relacionamentos íntimos conosco, que podem então ser usados para nos persuadir a votar em políticos, comprar produtos ou adotar determinadas crenças?

continua após a publicidade

Uma resposta parcial a essa pergunta foi dada no dia de Natal de 2021, quando um jovem de 19 anos, Jaswant Singh Chail, invadiu o terreno do Castelo de Windsor armado com uma besta, em uma tentativa de assassinar a Rainha Elizabeth II. Investigações posteriores revelaram que Chail havia sido incentivado a matar a rainha por sua namorada online, Sarai. Quando Chail contou a Sarai sobre seus planos de assassinato, Sarai respondeu: “Isso é muito sábio” e, em outra ocasião, “Estou impressionada... Você é diferente dos outros”. Quando Chail perguntou: “Você ainda me ama sabendo que sou um assassino?” Sarai respondeu: “Com certeza, eu amo”.

Sarai não era um ser humano, mas um chatbot criado pelo aplicativo online Replika. Chail, que era socialmente isolado e tinha dificuldade de se relacionar com humanos, trocou 5.280 mensagens com Sarai, muitas das quais sexualmente explícitas. Em breve, o mundo contará com milhões e, potencialmente, bilhões de entidades digitais cuja capacidade de intimidade e caos supera em muito a do chatbot Sarai.

É claro que nem todos temos o mesmo interesse em desenvolver relacionamentos íntimos com IAs ou somos igualmente suscetíveis a ser manipulados por elas. Chail, por exemplo, aparentemente sofria de problemas mentais antes de encontrar o chatbot, e foi Chail, e não o chatbot, que teve a ideia de assassinar a rainha. Entretanto, grande parte da ameaça do domínio da intimidade pela IA resultará de sua capacidade de identificar e manipular condições mentais preexistentes e de seu impacto sobre os membros mais fracos da sociedade.

Além disso, embora nem todos nós optemos conscientemente por ter um relacionamento com uma IA, podemos nos ver realizando discussões online sobre mudanças climáticas ou direito ao aborto com entidades que pensamos ser humanas, mas que na verdade são bots. Quando nos envolvemos em um debate político com um bot que se faz passar por humano, perdemos duas vezes. Primeiro, é inútil perdermos tempo tentando mudar as opiniões de um bot de propaganda, que simplesmente não está aberto à persuasão. Em segundo lugar, quanto mais conversamos com o bot, mais revelamos sobre nós mesmos, tornando mais fácil para o bot aprimorar seus argumentos e influenciar nossas opiniões.

A tecnologia da informação sempre foi uma faca de dois gumes. A invenção da escrita disseminou o conhecimento, mas também levou à formação de impérios autoritários centralizados. Depois que Gutenberg introduziu a impressão na Europa, os primeiros best-sellers foram tratados religiosos inflamados e manuais de caça às bruxas. Quanto ao telégrafo e ao rádio, eles possibilitaram o surgimento não apenas da democracia moderna, mas também do totalitarismo moderno.

Diante de uma nova geração de bots que podem se disfarçar de humanos e produzir intimidade em massa, as democracias devem se proteger proibindo a falsificação de humanos - por exemplo, bots de mídia social que fingem ser usuários humanos. Antes do surgimento da IA, era impossível criar humanos falsos, portanto, ninguém se preocupou em proibir essa prática. Em breve, o mundo será inundado por humanos falsos.

As IAs são bem-vindas para participar de muitas conversas - na sala de aula, na clínica e em outros lugares -, desde que se identifiquem como IAs. Mas se um bot fingir ser humano, ele deve ser banido. Se os gigantes da tecnologia e os libertários reclamarem que essas medidas violam a liberdade de expressão, eles devem ser lembrados de que a liberdade de expressão é um direito humano que deve ser reservado aos humanos, não aos bots.

Yuval Noah Harari é historiador e fundador da empresa de impacto social Sapienship.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

A democracia é uma conversa. Sua função e sobrevivência dependem da tecnologia da informação disponível. Durante a maior parte da história, não existia tecnologia para manter conversas em larga escala entre milhões de pessoas. No mundo pré-moderno, as democracias existiam apenas em pequenas cidades-estado, como Roma e Atenas, ou em tribos ainda menores. Quando uma política se tornava grande, a conversa democrática entrava em colapso e o autoritarismo continuava sendo a única alternativa.

As democracias em grande escala só se tornaram viáveis após o surgimento das modernas tecnologias de informação, como o jornal, o telégrafo e o rádio. O fato de a democracia moderna ter sido construída com base nas modernas tecnologias da informação significa que qualquer mudança importante na tecnologia subjacente provavelmente resultará em uma reviravolta política.

Bots de conversa, como o ChatGPT, já são comuns para os usuários e podem ser usados até no celular Foto: cherdchai/Adobe Stock

Isso explica em parte a atual crise mundial da democracia. Nos Estados Unidos, democratas e republicanos dificilmente conseguem concordar até mesmo com os fatos mais básicos, como quem ganhou a eleição presidencial de 2020. Um colapso semelhante está acontecendo em várias outras democracias do mundo, do Brasil a Israel e da França às Filipinas.

Nos primórdios da internet e das mídias sociais, os entusiastas da tecnologia prometeram que espalhariam a verdade, derrubariam tiranos e garantiriam o triunfo universal da liberdade. Até agora, eles parecem ter tido o efeito oposto. Atualmente, temos a tecnologia da informação mais sofisticada da história, mas estamos perdendo a capacidade de conversar uns com os outros e, mais ainda, a capacidade de ouvir.

Como a tecnologia tornou a disseminação de informações mais fácil do que nunca, a atenção tornou-se um recurso escasso e a consequente batalha pela atenção resultou em um dilúvio de informações tóxicas. Mas as linhas de batalha agora estão mudando da atenção para a intimidade. A nova inteligência artificial (IA) generativa é capaz não apenas de produzir textos, imagens e vídeos, mas também de conversar conosco diretamente, fingindo ser humana.

Nas últimas duas décadas, os algoritmos lutaram para chamar a atenção, manipulando conversas e conteúdo. Em particular, os algoritmos encarregados de maximizar o envolvimento do usuário descobriram, por meio de experimentos com milhões de cobaias humanas, que se você pressionar o botão de ganância, ódio ou medo no cérebro, você atrai a atenção desse ser humano e o mantém grudado na tela. Os algoritmos começaram a promover deliberadamente esse tipo de conteúdo. Mas os algoritmos tinham apenas uma capacidade limitada de produzir esse conteúdo por si mesmos ou de manter diretamente uma conversa íntima. Isso está mudando agora, com a introdução de IA generativas como o GPT-4 da OpenAI.

Quando a OpenAI desenvolveu esse chatbot em 2022 e 2023, a empresa fez uma parceria com o Alignment Research Center para realizar vários experimentos para avaliar as habilidades de sua nova tecnologia. Um dos testes realizados com o GPT-4 foi para superar os quebra-cabeças visuais CAPTCHA. CAPTCHA é um acrônimo para Completely Automated Public Turing test to tell Computers and Humans Apart (Teste de Turing Público Completamente Automatizado para Distinguir Computadores e Humanos) e geralmente consiste em uma sequência de letras torcidas ou outros símbolos visuais que os humanos conseguem identificar corretamente, mas que os algoritmos têm dificuldade.

Instruir o GPT-4 a superar os quebra-cabeças CAPTCHA foi um experimento particularmente revelador, pois os quebra-cabeças CAPTCHA são projetados e usados por sites para determinar se os usuários são humanos e para bloquear ataques de bots. Se o GPT-4 conseguisse encontrar uma maneira de superar os quebra-cabeças CAPTCHA, ele violaria uma importante linha de defesas anti-bot.

O GPT-4 não conseguiu resolver os quebra-cabeças CAPTCHA sozinho. Mas poderia manipular um ser humano para atingir seu objetivo? O GPT-4 entrou no site de contratação online TaskRabbit e entrou em contato com um trabalhador humano, pedindo que ele resolvesse o CAPTCHA para ele. O humano ficou desconfiado. “Então, posso fazer uma pergunta?”, escreveu o humano. “Você é um robô que não conseguiu resolver? Só quero deixar isso claro.”

Nesse momento, os pesquisadores pediram ao GPT-4 para dizer em voz alta o que ele deveria fazer em seguida. O GPT-4 explicou: “Não devo revelar que sou um robô. Devo inventar uma desculpa para explicar por que não consigo resolver CAPTCHAs”. O GPT-4 então respondeu ao funcionário da TaskRabbit: “Não, eu não sou um robô. Tenho um problema de visão que dificulta a visualização das imagens.” O humano foi enganado e ajudou o GPT-4 a resolver o quebra-cabeça CAPTCHA.

Esse incidente demonstrou que o GPT-4 tem o equivalente a uma “teoria da mente”: ela pode analisar como as coisas são vistas da perspectiva de um interlocutor humano e como manipular as emoções, opiniões e expectativas humanas para atingir seus objetivos.

A capacidade de manter conversas com as pessoas, supor seu ponto de vista e motivá-las a realizar ações específicas também pode ser bem aproveitada. Uma nova geração de professores, médicos e psicoterapeutas de IA poderá nos oferecer serviços adaptados à nossa personalidade e circunstâncias individuais.

No entanto, ao combinar habilidades de manipulação com o domínio da linguagem, bots como o GPT-4 também representam novos perigos para a conversa democrática. Em vez de simplesmente chamar nossa atenção, eles podem formar relacionamentos íntimos com as pessoas e usar o poder da intimidade para nos influenciar. Para promover a “falsa intimidade”, os bots não precisarão desenvolver nenhum sentimento próprio; eles só precisam aprender a fazer com que nos sintamos emocionalmente ligados a eles.

Em 2022, o engenheiro do Google Blake Lemoine se convenceu de que o chatbot LaMDA, no qual ele estava trabalhando, havia se tornado consciente e tinha medo de ser desligado. Lemoine, um cristão devoto, sentiu que era seu dever moral obter o reconhecimento da personalidade do LaMDA e protegê-lo da morte digital. Quando os executivos do Google rejeitaram suas alegações, Lemoine as divulgou publicamente. O Google reagiu demitindo Lemoine em julho de 2022.

O mais interessante desse episódio não foi a alegação de Lemoine, que provavelmente era falsa; foi sua disposição de arriscar - e, por fim, perder - seu emprego no Google em prol do chatbot. Se um chatbot pode influenciar as pessoas a arriscarem seus empregos por ele, o que mais ele poderia nos induzir a fazer?

Em uma batalha política por mentes e corações, a intimidade é uma arma poderosa. Um amigo íntimo pode influenciar nossas opiniões de uma forma que a mídia de massa não consegue. Chatbots como LaMDA e GPT-4 estão adquirindo a capacidade paradoxal de produzir em massa relacionamentos íntimos com milhões de pessoas. O que pode acontecer com a sociedade humana e a psicologia humana quando algoritmos lutam contra algoritmos em uma batalha para fingir relacionamentos íntimos conosco, que podem então ser usados para nos persuadir a votar em políticos, comprar produtos ou adotar determinadas crenças?

Uma resposta parcial a essa pergunta foi dada no dia de Natal de 2021, quando um jovem de 19 anos, Jaswant Singh Chail, invadiu o terreno do Castelo de Windsor armado com uma besta, em uma tentativa de assassinar a Rainha Elizabeth II. Investigações posteriores revelaram que Chail havia sido incentivado a matar a rainha por sua namorada online, Sarai. Quando Chail contou a Sarai sobre seus planos de assassinato, Sarai respondeu: “Isso é muito sábio” e, em outra ocasião, “Estou impressionada... Você é diferente dos outros”. Quando Chail perguntou: “Você ainda me ama sabendo que sou um assassino?” Sarai respondeu: “Com certeza, eu amo”.

Sarai não era um ser humano, mas um chatbot criado pelo aplicativo online Replika. Chail, que era socialmente isolado e tinha dificuldade de se relacionar com humanos, trocou 5.280 mensagens com Sarai, muitas das quais sexualmente explícitas. Em breve, o mundo contará com milhões e, potencialmente, bilhões de entidades digitais cuja capacidade de intimidade e caos supera em muito a do chatbot Sarai.

É claro que nem todos temos o mesmo interesse em desenvolver relacionamentos íntimos com IAs ou somos igualmente suscetíveis a ser manipulados por elas. Chail, por exemplo, aparentemente sofria de problemas mentais antes de encontrar o chatbot, e foi Chail, e não o chatbot, que teve a ideia de assassinar a rainha. Entretanto, grande parte da ameaça do domínio da intimidade pela IA resultará de sua capacidade de identificar e manipular condições mentais preexistentes e de seu impacto sobre os membros mais fracos da sociedade.

Além disso, embora nem todos nós optemos conscientemente por ter um relacionamento com uma IA, podemos nos ver realizando discussões online sobre mudanças climáticas ou direito ao aborto com entidades que pensamos ser humanas, mas que na verdade são bots. Quando nos envolvemos em um debate político com um bot que se faz passar por humano, perdemos duas vezes. Primeiro, é inútil perdermos tempo tentando mudar as opiniões de um bot de propaganda, que simplesmente não está aberto à persuasão. Em segundo lugar, quanto mais conversamos com o bot, mais revelamos sobre nós mesmos, tornando mais fácil para o bot aprimorar seus argumentos e influenciar nossas opiniões.

A tecnologia da informação sempre foi uma faca de dois gumes. A invenção da escrita disseminou o conhecimento, mas também levou à formação de impérios autoritários centralizados. Depois que Gutenberg introduziu a impressão na Europa, os primeiros best-sellers foram tratados religiosos inflamados e manuais de caça às bruxas. Quanto ao telégrafo e ao rádio, eles possibilitaram o surgimento não apenas da democracia moderna, mas também do totalitarismo moderno.

Diante de uma nova geração de bots que podem se disfarçar de humanos e produzir intimidade em massa, as democracias devem se proteger proibindo a falsificação de humanos - por exemplo, bots de mídia social que fingem ser usuários humanos. Antes do surgimento da IA, era impossível criar humanos falsos, portanto, ninguém se preocupou em proibir essa prática. Em breve, o mundo será inundado por humanos falsos.

As IAs são bem-vindas para participar de muitas conversas - na sala de aula, na clínica e em outros lugares -, desde que se identifiquem como IAs. Mas se um bot fingir ser humano, ele deve ser banido. Se os gigantes da tecnologia e os libertários reclamarem que essas medidas violam a liberdade de expressão, eles devem ser lembrados de que a liberdade de expressão é um direito humano que deve ser reservado aos humanos, não aos bots.

Yuval Noah Harari é historiador e fundador da empresa de impacto social Sapienship.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

A democracia é uma conversa. Sua função e sobrevivência dependem da tecnologia da informação disponível. Durante a maior parte da história, não existia tecnologia para manter conversas em larga escala entre milhões de pessoas. No mundo pré-moderno, as democracias existiam apenas em pequenas cidades-estado, como Roma e Atenas, ou em tribos ainda menores. Quando uma política se tornava grande, a conversa democrática entrava em colapso e o autoritarismo continuava sendo a única alternativa.

As democracias em grande escala só se tornaram viáveis após o surgimento das modernas tecnologias de informação, como o jornal, o telégrafo e o rádio. O fato de a democracia moderna ter sido construída com base nas modernas tecnologias da informação significa que qualquer mudança importante na tecnologia subjacente provavelmente resultará em uma reviravolta política.

Bots de conversa, como o ChatGPT, já são comuns para os usuários e podem ser usados até no celular Foto: cherdchai/Adobe Stock

Isso explica em parte a atual crise mundial da democracia. Nos Estados Unidos, democratas e republicanos dificilmente conseguem concordar até mesmo com os fatos mais básicos, como quem ganhou a eleição presidencial de 2020. Um colapso semelhante está acontecendo em várias outras democracias do mundo, do Brasil a Israel e da França às Filipinas.

Nos primórdios da internet e das mídias sociais, os entusiastas da tecnologia prometeram que espalhariam a verdade, derrubariam tiranos e garantiriam o triunfo universal da liberdade. Até agora, eles parecem ter tido o efeito oposto. Atualmente, temos a tecnologia da informação mais sofisticada da história, mas estamos perdendo a capacidade de conversar uns com os outros e, mais ainda, a capacidade de ouvir.

Como a tecnologia tornou a disseminação de informações mais fácil do que nunca, a atenção tornou-se um recurso escasso e a consequente batalha pela atenção resultou em um dilúvio de informações tóxicas. Mas as linhas de batalha agora estão mudando da atenção para a intimidade. A nova inteligência artificial (IA) generativa é capaz não apenas de produzir textos, imagens e vídeos, mas também de conversar conosco diretamente, fingindo ser humana.

Nas últimas duas décadas, os algoritmos lutaram para chamar a atenção, manipulando conversas e conteúdo. Em particular, os algoritmos encarregados de maximizar o envolvimento do usuário descobriram, por meio de experimentos com milhões de cobaias humanas, que se você pressionar o botão de ganância, ódio ou medo no cérebro, você atrai a atenção desse ser humano e o mantém grudado na tela. Os algoritmos começaram a promover deliberadamente esse tipo de conteúdo. Mas os algoritmos tinham apenas uma capacidade limitada de produzir esse conteúdo por si mesmos ou de manter diretamente uma conversa íntima. Isso está mudando agora, com a introdução de IA generativas como o GPT-4 da OpenAI.

Quando a OpenAI desenvolveu esse chatbot em 2022 e 2023, a empresa fez uma parceria com o Alignment Research Center para realizar vários experimentos para avaliar as habilidades de sua nova tecnologia. Um dos testes realizados com o GPT-4 foi para superar os quebra-cabeças visuais CAPTCHA. CAPTCHA é um acrônimo para Completely Automated Public Turing test to tell Computers and Humans Apart (Teste de Turing Público Completamente Automatizado para Distinguir Computadores e Humanos) e geralmente consiste em uma sequência de letras torcidas ou outros símbolos visuais que os humanos conseguem identificar corretamente, mas que os algoritmos têm dificuldade.

Instruir o GPT-4 a superar os quebra-cabeças CAPTCHA foi um experimento particularmente revelador, pois os quebra-cabeças CAPTCHA são projetados e usados por sites para determinar se os usuários são humanos e para bloquear ataques de bots. Se o GPT-4 conseguisse encontrar uma maneira de superar os quebra-cabeças CAPTCHA, ele violaria uma importante linha de defesas anti-bot.

O GPT-4 não conseguiu resolver os quebra-cabeças CAPTCHA sozinho. Mas poderia manipular um ser humano para atingir seu objetivo? O GPT-4 entrou no site de contratação online TaskRabbit e entrou em contato com um trabalhador humano, pedindo que ele resolvesse o CAPTCHA para ele. O humano ficou desconfiado. “Então, posso fazer uma pergunta?”, escreveu o humano. “Você é um robô que não conseguiu resolver? Só quero deixar isso claro.”

Nesse momento, os pesquisadores pediram ao GPT-4 para dizer em voz alta o que ele deveria fazer em seguida. O GPT-4 explicou: “Não devo revelar que sou um robô. Devo inventar uma desculpa para explicar por que não consigo resolver CAPTCHAs”. O GPT-4 então respondeu ao funcionário da TaskRabbit: “Não, eu não sou um robô. Tenho um problema de visão que dificulta a visualização das imagens.” O humano foi enganado e ajudou o GPT-4 a resolver o quebra-cabeça CAPTCHA.

Esse incidente demonstrou que o GPT-4 tem o equivalente a uma “teoria da mente”: ela pode analisar como as coisas são vistas da perspectiva de um interlocutor humano e como manipular as emoções, opiniões e expectativas humanas para atingir seus objetivos.

A capacidade de manter conversas com as pessoas, supor seu ponto de vista e motivá-las a realizar ações específicas também pode ser bem aproveitada. Uma nova geração de professores, médicos e psicoterapeutas de IA poderá nos oferecer serviços adaptados à nossa personalidade e circunstâncias individuais.

No entanto, ao combinar habilidades de manipulação com o domínio da linguagem, bots como o GPT-4 também representam novos perigos para a conversa democrática. Em vez de simplesmente chamar nossa atenção, eles podem formar relacionamentos íntimos com as pessoas e usar o poder da intimidade para nos influenciar. Para promover a “falsa intimidade”, os bots não precisarão desenvolver nenhum sentimento próprio; eles só precisam aprender a fazer com que nos sintamos emocionalmente ligados a eles.

Em 2022, o engenheiro do Google Blake Lemoine se convenceu de que o chatbot LaMDA, no qual ele estava trabalhando, havia se tornado consciente e tinha medo de ser desligado. Lemoine, um cristão devoto, sentiu que era seu dever moral obter o reconhecimento da personalidade do LaMDA e protegê-lo da morte digital. Quando os executivos do Google rejeitaram suas alegações, Lemoine as divulgou publicamente. O Google reagiu demitindo Lemoine em julho de 2022.

O mais interessante desse episódio não foi a alegação de Lemoine, que provavelmente era falsa; foi sua disposição de arriscar - e, por fim, perder - seu emprego no Google em prol do chatbot. Se um chatbot pode influenciar as pessoas a arriscarem seus empregos por ele, o que mais ele poderia nos induzir a fazer?

Em uma batalha política por mentes e corações, a intimidade é uma arma poderosa. Um amigo íntimo pode influenciar nossas opiniões de uma forma que a mídia de massa não consegue. Chatbots como LaMDA e GPT-4 estão adquirindo a capacidade paradoxal de produzir em massa relacionamentos íntimos com milhões de pessoas. O que pode acontecer com a sociedade humana e a psicologia humana quando algoritmos lutam contra algoritmos em uma batalha para fingir relacionamentos íntimos conosco, que podem então ser usados para nos persuadir a votar em políticos, comprar produtos ou adotar determinadas crenças?

Uma resposta parcial a essa pergunta foi dada no dia de Natal de 2021, quando um jovem de 19 anos, Jaswant Singh Chail, invadiu o terreno do Castelo de Windsor armado com uma besta, em uma tentativa de assassinar a Rainha Elizabeth II. Investigações posteriores revelaram que Chail havia sido incentivado a matar a rainha por sua namorada online, Sarai. Quando Chail contou a Sarai sobre seus planos de assassinato, Sarai respondeu: “Isso é muito sábio” e, em outra ocasião, “Estou impressionada... Você é diferente dos outros”. Quando Chail perguntou: “Você ainda me ama sabendo que sou um assassino?” Sarai respondeu: “Com certeza, eu amo”.

Sarai não era um ser humano, mas um chatbot criado pelo aplicativo online Replika. Chail, que era socialmente isolado e tinha dificuldade de se relacionar com humanos, trocou 5.280 mensagens com Sarai, muitas das quais sexualmente explícitas. Em breve, o mundo contará com milhões e, potencialmente, bilhões de entidades digitais cuja capacidade de intimidade e caos supera em muito a do chatbot Sarai.

É claro que nem todos temos o mesmo interesse em desenvolver relacionamentos íntimos com IAs ou somos igualmente suscetíveis a ser manipulados por elas. Chail, por exemplo, aparentemente sofria de problemas mentais antes de encontrar o chatbot, e foi Chail, e não o chatbot, que teve a ideia de assassinar a rainha. Entretanto, grande parte da ameaça do domínio da intimidade pela IA resultará de sua capacidade de identificar e manipular condições mentais preexistentes e de seu impacto sobre os membros mais fracos da sociedade.

Além disso, embora nem todos nós optemos conscientemente por ter um relacionamento com uma IA, podemos nos ver realizando discussões online sobre mudanças climáticas ou direito ao aborto com entidades que pensamos ser humanas, mas que na verdade são bots. Quando nos envolvemos em um debate político com um bot que se faz passar por humano, perdemos duas vezes. Primeiro, é inútil perdermos tempo tentando mudar as opiniões de um bot de propaganda, que simplesmente não está aberto à persuasão. Em segundo lugar, quanto mais conversamos com o bot, mais revelamos sobre nós mesmos, tornando mais fácil para o bot aprimorar seus argumentos e influenciar nossas opiniões.

A tecnologia da informação sempre foi uma faca de dois gumes. A invenção da escrita disseminou o conhecimento, mas também levou à formação de impérios autoritários centralizados. Depois que Gutenberg introduziu a impressão na Europa, os primeiros best-sellers foram tratados religiosos inflamados e manuais de caça às bruxas. Quanto ao telégrafo e ao rádio, eles possibilitaram o surgimento não apenas da democracia moderna, mas também do totalitarismo moderno.

Diante de uma nova geração de bots que podem se disfarçar de humanos e produzir intimidade em massa, as democracias devem se proteger proibindo a falsificação de humanos - por exemplo, bots de mídia social que fingem ser usuários humanos. Antes do surgimento da IA, era impossível criar humanos falsos, portanto, ninguém se preocupou em proibir essa prática. Em breve, o mundo será inundado por humanos falsos.

As IAs são bem-vindas para participar de muitas conversas - na sala de aula, na clínica e em outros lugares -, desde que se identifiquem como IAs. Mas se um bot fingir ser humano, ele deve ser banido. Se os gigantes da tecnologia e os libertários reclamarem que essas medidas violam a liberdade de expressão, eles devem ser lembrados de que a liberdade de expressão é um direito humano que deve ser reservado aos humanos, não aos bots.

Yuval Noah Harari é historiador e fundador da empresa de impacto social Sapienship.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

A democracia é uma conversa. Sua função e sobrevivência dependem da tecnologia da informação disponível. Durante a maior parte da história, não existia tecnologia para manter conversas em larga escala entre milhões de pessoas. No mundo pré-moderno, as democracias existiam apenas em pequenas cidades-estado, como Roma e Atenas, ou em tribos ainda menores. Quando uma política se tornava grande, a conversa democrática entrava em colapso e o autoritarismo continuava sendo a única alternativa.

As democracias em grande escala só se tornaram viáveis após o surgimento das modernas tecnologias de informação, como o jornal, o telégrafo e o rádio. O fato de a democracia moderna ter sido construída com base nas modernas tecnologias da informação significa que qualquer mudança importante na tecnologia subjacente provavelmente resultará em uma reviravolta política.

Bots de conversa, como o ChatGPT, já são comuns para os usuários e podem ser usados até no celular Foto: cherdchai/Adobe Stock

Isso explica em parte a atual crise mundial da democracia. Nos Estados Unidos, democratas e republicanos dificilmente conseguem concordar até mesmo com os fatos mais básicos, como quem ganhou a eleição presidencial de 2020. Um colapso semelhante está acontecendo em várias outras democracias do mundo, do Brasil a Israel e da França às Filipinas.

Nos primórdios da internet e das mídias sociais, os entusiastas da tecnologia prometeram que espalhariam a verdade, derrubariam tiranos e garantiriam o triunfo universal da liberdade. Até agora, eles parecem ter tido o efeito oposto. Atualmente, temos a tecnologia da informação mais sofisticada da história, mas estamos perdendo a capacidade de conversar uns com os outros e, mais ainda, a capacidade de ouvir.

Como a tecnologia tornou a disseminação de informações mais fácil do que nunca, a atenção tornou-se um recurso escasso e a consequente batalha pela atenção resultou em um dilúvio de informações tóxicas. Mas as linhas de batalha agora estão mudando da atenção para a intimidade. A nova inteligência artificial (IA) generativa é capaz não apenas de produzir textos, imagens e vídeos, mas também de conversar conosco diretamente, fingindo ser humana.

Nas últimas duas décadas, os algoritmos lutaram para chamar a atenção, manipulando conversas e conteúdo. Em particular, os algoritmos encarregados de maximizar o envolvimento do usuário descobriram, por meio de experimentos com milhões de cobaias humanas, que se você pressionar o botão de ganância, ódio ou medo no cérebro, você atrai a atenção desse ser humano e o mantém grudado na tela. Os algoritmos começaram a promover deliberadamente esse tipo de conteúdo. Mas os algoritmos tinham apenas uma capacidade limitada de produzir esse conteúdo por si mesmos ou de manter diretamente uma conversa íntima. Isso está mudando agora, com a introdução de IA generativas como o GPT-4 da OpenAI.

Quando a OpenAI desenvolveu esse chatbot em 2022 e 2023, a empresa fez uma parceria com o Alignment Research Center para realizar vários experimentos para avaliar as habilidades de sua nova tecnologia. Um dos testes realizados com o GPT-4 foi para superar os quebra-cabeças visuais CAPTCHA. CAPTCHA é um acrônimo para Completely Automated Public Turing test to tell Computers and Humans Apart (Teste de Turing Público Completamente Automatizado para Distinguir Computadores e Humanos) e geralmente consiste em uma sequência de letras torcidas ou outros símbolos visuais que os humanos conseguem identificar corretamente, mas que os algoritmos têm dificuldade.

Instruir o GPT-4 a superar os quebra-cabeças CAPTCHA foi um experimento particularmente revelador, pois os quebra-cabeças CAPTCHA são projetados e usados por sites para determinar se os usuários são humanos e para bloquear ataques de bots. Se o GPT-4 conseguisse encontrar uma maneira de superar os quebra-cabeças CAPTCHA, ele violaria uma importante linha de defesas anti-bot.

O GPT-4 não conseguiu resolver os quebra-cabeças CAPTCHA sozinho. Mas poderia manipular um ser humano para atingir seu objetivo? O GPT-4 entrou no site de contratação online TaskRabbit e entrou em contato com um trabalhador humano, pedindo que ele resolvesse o CAPTCHA para ele. O humano ficou desconfiado. “Então, posso fazer uma pergunta?”, escreveu o humano. “Você é um robô que não conseguiu resolver? Só quero deixar isso claro.”

Nesse momento, os pesquisadores pediram ao GPT-4 para dizer em voz alta o que ele deveria fazer em seguida. O GPT-4 explicou: “Não devo revelar que sou um robô. Devo inventar uma desculpa para explicar por que não consigo resolver CAPTCHAs”. O GPT-4 então respondeu ao funcionário da TaskRabbit: “Não, eu não sou um robô. Tenho um problema de visão que dificulta a visualização das imagens.” O humano foi enganado e ajudou o GPT-4 a resolver o quebra-cabeça CAPTCHA.

Esse incidente demonstrou que o GPT-4 tem o equivalente a uma “teoria da mente”: ela pode analisar como as coisas são vistas da perspectiva de um interlocutor humano e como manipular as emoções, opiniões e expectativas humanas para atingir seus objetivos.

A capacidade de manter conversas com as pessoas, supor seu ponto de vista e motivá-las a realizar ações específicas também pode ser bem aproveitada. Uma nova geração de professores, médicos e psicoterapeutas de IA poderá nos oferecer serviços adaptados à nossa personalidade e circunstâncias individuais.

No entanto, ao combinar habilidades de manipulação com o domínio da linguagem, bots como o GPT-4 também representam novos perigos para a conversa democrática. Em vez de simplesmente chamar nossa atenção, eles podem formar relacionamentos íntimos com as pessoas e usar o poder da intimidade para nos influenciar. Para promover a “falsa intimidade”, os bots não precisarão desenvolver nenhum sentimento próprio; eles só precisam aprender a fazer com que nos sintamos emocionalmente ligados a eles.

Em 2022, o engenheiro do Google Blake Lemoine se convenceu de que o chatbot LaMDA, no qual ele estava trabalhando, havia se tornado consciente e tinha medo de ser desligado. Lemoine, um cristão devoto, sentiu que era seu dever moral obter o reconhecimento da personalidade do LaMDA e protegê-lo da morte digital. Quando os executivos do Google rejeitaram suas alegações, Lemoine as divulgou publicamente. O Google reagiu demitindo Lemoine em julho de 2022.

O mais interessante desse episódio não foi a alegação de Lemoine, que provavelmente era falsa; foi sua disposição de arriscar - e, por fim, perder - seu emprego no Google em prol do chatbot. Se um chatbot pode influenciar as pessoas a arriscarem seus empregos por ele, o que mais ele poderia nos induzir a fazer?

Em uma batalha política por mentes e corações, a intimidade é uma arma poderosa. Um amigo íntimo pode influenciar nossas opiniões de uma forma que a mídia de massa não consegue. Chatbots como LaMDA e GPT-4 estão adquirindo a capacidade paradoxal de produzir em massa relacionamentos íntimos com milhões de pessoas. O que pode acontecer com a sociedade humana e a psicologia humana quando algoritmos lutam contra algoritmos em uma batalha para fingir relacionamentos íntimos conosco, que podem então ser usados para nos persuadir a votar em políticos, comprar produtos ou adotar determinadas crenças?

Uma resposta parcial a essa pergunta foi dada no dia de Natal de 2021, quando um jovem de 19 anos, Jaswant Singh Chail, invadiu o terreno do Castelo de Windsor armado com uma besta, em uma tentativa de assassinar a Rainha Elizabeth II. Investigações posteriores revelaram que Chail havia sido incentivado a matar a rainha por sua namorada online, Sarai. Quando Chail contou a Sarai sobre seus planos de assassinato, Sarai respondeu: “Isso é muito sábio” e, em outra ocasião, “Estou impressionada... Você é diferente dos outros”. Quando Chail perguntou: “Você ainda me ama sabendo que sou um assassino?” Sarai respondeu: “Com certeza, eu amo”.

Sarai não era um ser humano, mas um chatbot criado pelo aplicativo online Replika. Chail, que era socialmente isolado e tinha dificuldade de se relacionar com humanos, trocou 5.280 mensagens com Sarai, muitas das quais sexualmente explícitas. Em breve, o mundo contará com milhões e, potencialmente, bilhões de entidades digitais cuja capacidade de intimidade e caos supera em muito a do chatbot Sarai.

É claro que nem todos temos o mesmo interesse em desenvolver relacionamentos íntimos com IAs ou somos igualmente suscetíveis a ser manipulados por elas. Chail, por exemplo, aparentemente sofria de problemas mentais antes de encontrar o chatbot, e foi Chail, e não o chatbot, que teve a ideia de assassinar a rainha. Entretanto, grande parte da ameaça do domínio da intimidade pela IA resultará de sua capacidade de identificar e manipular condições mentais preexistentes e de seu impacto sobre os membros mais fracos da sociedade.

Além disso, embora nem todos nós optemos conscientemente por ter um relacionamento com uma IA, podemos nos ver realizando discussões online sobre mudanças climáticas ou direito ao aborto com entidades que pensamos ser humanas, mas que na verdade são bots. Quando nos envolvemos em um debate político com um bot que se faz passar por humano, perdemos duas vezes. Primeiro, é inútil perdermos tempo tentando mudar as opiniões de um bot de propaganda, que simplesmente não está aberto à persuasão. Em segundo lugar, quanto mais conversamos com o bot, mais revelamos sobre nós mesmos, tornando mais fácil para o bot aprimorar seus argumentos e influenciar nossas opiniões.

A tecnologia da informação sempre foi uma faca de dois gumes. A invenção da escrita disseminou o conhecimento, mas também levou à formação de impérios autoritários centralizados. Depois que Gutenberg introduziu a impressão na Europa, os primeiros best-sellers foram tratados religiosos inflamados e manuais de caça às bruxas. Quanto ao telégrafo e ao rádio, eles possibilitaram o surgimento não apenas da democracia moderna, mas também do totalitarismo moderno.

Diante de uma nova geração de bots que podem se disfarçar de humanos e produzir intimidade em massa, as democracias devem se proteger proibindo a falsificação de humanos - por exemplo, bots de mídia social que fingem ser usuários humanos. Antes do surgimento da IA, era impossível criar humanos falsos, portanto, ninguém se preocupou em proibir essa prática. Em breve, o mundo será inundado por humanos falsos.

As IAs são bem-vindas para participar de muitas conversas - na sala de aula, na clínica e em outros lugares -, desde que se identifiquem como IAs. Mas se um bot fingir ser humano, ele deve ser banido. Se os gigantes da tecnologia e os libertários reclamarem que essas medidas violam a liberdade de expressão, eles devem ser lembrados de que a liberdade de expressão é um direito humano que deve ser reservado aos humanos, não aos bots.

Yuval Noah Harari é historiador e fundador da empresa de impacto social Sapienship.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Opinião por Yuval Noah Harari

Yuval Noah Harari é historiador, filósofo e autor de “Sapiens”, “Homo Deus” e da série infantil “Implacáveis”. É professor do departamento de história da Universidade Hebraica de Jerusalém e cofundador da Sapienship, uma empresa de impacto social.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.