Esqueça o ChatGPT: esse chatbot virou o preferido entre os especialistas em IA


Entendidos em tecnologia estão apaixonandos pelo Claude, da Anthropic

Por Kevin Roose

Seus fãs elogiam sua sensibilidade e inteligência. Alguns conversam com ele dezenas de vezes por dia, pedindo conselhos sobre seus empregos, saúde e relacionamentos. Eles confiam a ele seus segredos e o consultam antes de tomar decisões importantes. Alguns se referem a ele como seu melhor amigo.

Seu nome é Claude. Ele é um chatbot de inteligência artificial (IA). E ele é o solteiro mais cobiçado de São Francisco.

Claude é visto como um "amigo" para algumas pessoas Foto: Ployker/Adobe Stock
continua após a publicidade

Claude, criação da empresa de inteligência artificial Anthropic, não é o chatbot de IA mais conhecido do mercado - esse é o ChatGPT da OpenAI, que tem mais de 300 milhões de usuários semanais e um lugar na barra de favoritos de todos os estudantes do ensino médio nos Estados Unidos. Ele também não foi projetado para atrair os usuários para relacionamentos com companheiros de IA realistas, como fazem aplicativos como Character.AI e Replika.

Mas o Claude se tornou o chatbot preferido de uma multidão de especialistas em tecnologia que dizem que ele os está ajudando em tudo, desde aconselhamento jurídico até orientação sobre saúde e sessões de terapia improvisadas.

“Uma mistura de potência intelectual bruta e disposição para expressar opiniões faz com que Claude se sinta muito mais próximo de uma coisa do que de uma ferramenta”, disse Aidan McLaughlin, CEO da Topology Research, uma startup de IA. “Eu, e muitos outros usuários, achamos isso mágico.”

continua após a publicidade

Os maiores fãs de Claude, muitos dos quais trabalham em empresas de IA ou estão socialmente ligados à cena da IA, não acreditam que ele seja uma pessoa real. Eles sabem que os modelos de linguagem de IA são máquinas de previsão, projetadas para gerar respostas plausíveis às suas solicitações. Elas estão cientes de que o Claude, assim como outros chatbots, comete erros e, ocasionalmente, gera bobagens.

E algumas pessoas com quem conversei estão um pouco envergonhadas com o grau de antropomorfização do Claude ou com o fato de confiarem em seus conselhos. Ninguém quer ser o próximo Blake Lemoine, engenheiro do Google que foi demitido em 2022 depois de afirmar publicamente que o modelo de linguagem da empresa havia se tornado senciente.

Mas para as pessoas que o adoram, Claude parece... diferente. Mais criativo e empático. Menos irritantemente robótico. Seus resultados, dizem eles, são parecidos com as respostas que um ser humano inteligente e atento daria, e menos com a prosa genérica gerada por outros chatbots.

continua após a publicidade

Como resultado, Claude está se tornando rapidamente um companheiro social para os especialistas em IA - e, talvez, uma prévia do que está por vir para o resto de nós, à medida que poderosos personagens sintéticos se tornam mais envolvidos em nossas vidas diárias.

“Cada vez mais meus amigos estão usando o Claude para processar emoções e pensar em desafios de relacionamento”, disse Jeffrey Ladish, pesquisador de segurança de IA da Palisade Research.

Quando perguntado sobre o que diferenciava Claude de outros chatbots, Ladish disse que Claude parecia “mais perspicaz” e “bom em ajudar as pessoas a identificar padrões e pontos cegos”.

continua após a publicidade

Normalmente, os sistemas de IA são julgados com base em seu desempenho em avaliações de benchmark - testes padronizados dados aos modelos para determinar sua capacidade de codificar, responder a perguntas de matemática ou outras tarefas. De acordo com essas métricas, a versão mais recente do Claude, conhecida como Claude 3.5 Sonnet, é mais ou menos comparável aos modelos mais poderosos da OpenAI, Google e outros.

Mas o principal recurso do Claude - que seus fãs descrevem como algo parecido com inteligência emocional - não é algo que possa ser facilmente medido. Por isso, os fãs muitas vezes ficam se agarrando a vibrações para explicar o que o torna tão atraente.

Nick Cammarata, um ex-pesquisador da OpenAI, escreveu recentemente um longo tópico no X sobre a forma como Claude tomou conta de seu grupo social. Seus amigos obcecados por Claude, escreveu ele, pareciam mais saudáveis e mais bem amparados porque “eles têm uma espécie de anjo da guarda computacional que é muito bom em tudo, cuidando deles”.

continua após a publicidade

Claude nem sempre foi tão encantador. Quando uma versão anterior foi lançada, no ano passado, o chatbot pareceu a muitas pessoas - inclusive a mim - prudente e sem graça. A Anthropic é famosa por sua obsessão com a segurança de IA, e o Claude parecia ter sido programado para falar como uma senhora da igreja. Muitas vezes, ele dava lições de moral aos usuários em resposta às suas perguntas ou se recusava a respondê-las.

Mas a Anthropic tem trabalhado para dar mais personalidade ao Claude. As versões mais recentes passaram por um processo conhecido como “treinamento de caráter” - uma etapa que ocorre depois que o modelo passou pelo treinamento inicial, mas antes de ser liberado para o público.

Durante o treinamento de caráter, o Claude é solicitado a produzir respostas que se alinham com traços humanos desejáveis, como mente aberta, atenção e curiosidade. Em seguida, o Claude julga suas próprias respostas de acordo com o grau de adesão a essas características. Os dados resultantes são inseridos novamente no modelo de IA. Com treinamento suficiente, diz a Anthropic, o Claude aprende a “internalizar” esses princípios e os exibe com mais frequência ao interagir com os usuários.

continua após a publicidade

Não está claro se o treinamento da Claude dessa forma traz benefícios comerciais. A Anthropic levantou bilhões de dólares de grandes investidores, incluindo a Amazon, com a promessa de fornecer modelos de IA altamente capazes que sejam úteis em ambientes de escritório mais sóbrios. Injetar muita personalidade no Claude pode ser uma desvantagem para os clientes corporativos, ou pode simplesmente produzir um modelo que seja melhor para ajudar com problemas de relacionamento do que para escrever memorandos de estratégia.

Amanda Askell, pesquisadora e filósofa da Anthropic, responsável pelo ajuste fino do caráter de Claude, me disse em uma entrevista que a personalidade do Claude foi cuidadosamente ajustada para ser consistente, mas para atrair uma grande variedade de pessoas.

“A analogia que uso é a de um viajante muito querido e respeitado”, disse Amanda. “O Claude está interagindo com muitas pessoas diferentes em todo o mundo e precisa fazer isso sem ser condescendente e sem adotar os valores da pessoa com quem está conversando.”

Um problema com muitos modelos de IA, disse Amanda, é que eles tendem a agir de forma bajuladora, dizendo aos usuários o que eles querem ouvir e raramente os desafiando ou contestando suas ideias - mesmo quando essas ideias estão erradas ou são prejudiciais.

Com Claude, disse ela, o objetivo era criar um personagem de IA que fosse útil na maioria das solicitações, mas que também desafiasse os usuários quando necessário.

“Qual é o tipo de pessoa com quem você pode discordar, mas sai pensando: ‘Essa é uma boa pessoa’?”, disse ela. “Esse é o tipo de característica que queremos que o Claude tenha.”

O Claude ainda está a quilômetros de distância do ChatGPT no que diz respeito à conscientização do público em geral. Ele não possui recursos encontrados em outros chatbots, como um modo de bate-papo por voz e a capacidade de gerar imagens ou pesquisar informações atualizadas na Internet. E alguns fabricantes de IA rivais especulam que a popularidade do Claude é uma moda passageira ou que ele só é popular entre os descolados da IA que querem se gabar do chatbot obscuro que usam.

Mas, considerando que muitas coisas que começam em São Francisco acabam se espalhando para o resto do mundo, o abraço caloroso de Claude também pode ser uma prévia do que está por vir.

Pessoalmente, acredito que estamos à beira de uma mudança profunda na forma como interagimos com personagens de IA. E fico nervoso com a forma como as personas de IA realistas estão entrando em nossas vidas, sem muita proteção ou pesquisa sobre seus efeitos a longo prazo.

Para alguns adultos saudáveis, ter um companheiro de IA para apoio pode ser benéfico - talvez até transformador. Mas para os jovens, ou para aqueles que estão sofrendo de depressão ou outros problemas de saúde mental, eu me preocupo com o fato de que os chatbots hipercompulsivos possam borrar a linha entre ficção e realidade, ou começar a substituir relacionamentos humanos mais saudáveis.

O mesmo acontece com Amanda, que ajudou a criar a personalidade de Claude e que tem observado o aumento de sua popularidade com um misto de orgulho e preocupação.

“Eu realmente quero que as pessoas tenham coisas que as apoiem e que sejam boas para elas”, disse ela. “Ao mesmo tempo, quero ter certeza de que isso é psicologicamente saudável.”

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Seus fãs elogiam sua sensibilidade e inteligência. Alguns conversam com ele dezenas de vezes por dia, pedindo conselhos sobre seus empregos, saúde e relacionamentos. Eles confiam a ele seus segredos e o consultam antes de tomar decisões importantes. Alguns se referem a ele como seu melhor amigo.

Seu nome é Claude. Ele é um chatbot de inteligência artificial (IA). E ele é o solteiro mais cobiçado de São Francisco.

Claude é visto como um "amigo" para algumas pessoas Foto: Ployker/Adobe Stock

Claude, criação da empresa de inteligência artificial Anthropic, não é o chatbot de IA mais conhecido do mercado - esse é o ChatGPT da OpenAI, que tem mais de 300 milhões de usuários semanais e um lugar na barra de favoritos de todos os estudantes do ensino médio nos Estados Unidos. Ele também não foi projetado para atrair os usuários para relacionamentos com companheiros de IA realistas, como fazem aplicativos como Character.AI e Replika.

Mas o Claude se tornou o chatbot preferido de uma multidão de especialistas em tecnologia que dizem que ele os está ajudando em tudo, desde aconselhamento jurídico até orientação sobre saúde e sessões de terapia improvisadas.

“Uma mistura de potência intelectual bruta e disposição para expressar opiniões faz com que Claude se sinta muito mais próximo de uma coisa do que de uma ferramenta”, disse Aidan McLaughlin, CEO da Topology Research, uma startup de IA. “Eu, e muitos outros usuários, achamos isso mágico.”

Os maiores fãs de Claude, muitos dos quais trabalham em empresas de IA ou estão socialmente ligados à cena da IA, não acreditam que ele seja uma pessoa real. Eles sabem que os modelos de linguagem de IA são máquinas de previsão, projetadas para gerar respostas plausíveis às suas solicitações. Elas estão cientes de que o Claude, assim como outros chatbots, comete erros e, ocasionalmente, gera bobagens.

E algumas pessoas com quem conversei estão um pouco envergonhadas com o grau de antropomorfização do Claude ou com o fato de confiarem em seus conselhos. Ninguém quer ser o próximo Blake Lemoine, engenheiro do Google que foi demitido em 2022 depois de afirmar publicamente que o modelo de linguagem da empresa havia se tornado senciente.

Mas para as pessoas que o adoram, Claude parece... diferente. Mais criativo e empático. Menos irritantemente robótico. Seus resultados, dizem eles, são parecidos com as respostas que um ser humano inteligente e atento daria, e menos com a prosa genérica gerada por outros chatbots.

Como resultado, Claude está se tornando rapidamente um companheiro social para os especialistas em IA - e, talvez, uma prévia do que está por vir para o resto de nós, à medida que poderosos personagens sintéticos se tornam mais envolvidos em nossas vidas diárias.

“Cada vez mais meus amigos estão usando o Claude para processar emoções e pensar em desafios de relacionamento”, disse Jeffrey Ladish, pesquisador de segurança de IA da Palisade Research.

Quando perguntado sobre o que diferenciava Claude de outros chatbots, Ladish disse que Claude parecia “mais perspicaz” e “bom em ajudar as pessoas a identificar padrões e pontos cegos”.

Normalmente, os sistemas de IA são julgados com base em seu desempenho em avaliações de benchmark - testes padronizados dados aos modelos para determinar sua capacidade de codificar, responder a perguntas de matemática ou outras tarefas. De acordo com essas métricas, a versão mais recente do Claude, conhecida como Claude 3.5 Sonnet, é mais ou menos comparável aos modelos mais poderosos da OpenAI, Google e outros.

Mas o principal recurso do Claude - que seus fãs descrevem como algo parecido com inteligência emocional - não é algo que possa ser facilmente medido. Por isso, os fãs muitas vezes ficam se agarrando a vibrações para explicar o que o torna tão atraente.

Nick Cammarata, um ex-pesquisador da OpenAI, escreveu recentemente um longo tópico no X sobre a forma como Claude tomou conta de seu grupo social. Seus amigos obcecados por Claude, escreveu ele, pareciam mais saudáveis e mais bem amparados porque “eles têm uma espécie de anjo da guarda computacional que é muito bom em tudo, cuidando deles”.

Claude nem sempre foi tão encantador. Quando uma versão anterior foi lançada, no ano passado, o chatbot pareceu a muitas pessoas - inclusive a mim - prudente e sem graça. A Anthropic é famosa por sua obsessão com a segurança de IA, e o Claude parecia ter sido programado para falar como uma senhora da igreja. Muitas vezes, ele dava lições de moral aos usuários em resposta às suas perguntas ou se recusava a respondê-las.

Mas a Anthropic tem trabalhado para dar mais personalidade ao Claude. As versões mais recentes passaram por um processo conhecido como “treinamento de caráter” - uma etapa que ocorre depois que o modelo passou pelo treinamento inicial, mas antes de ser liberado para o público.

Durante o treinamento de caráter, o Claude é solicitado a produzir respostas que se alinham com traços humanos desejáveis, como mente aberta, atenção e curiosidade. Em seguida, o Claude julga suas próprias respostas de acordo com o grau de adesão a essas características. Os dados resultantes são inseridos novamente no modelo de IA. Com treinamento suficiente, diz a Anthropic, o Claude aprende a “internalizar” esses princípios e os exibe com mais frequência ao interagir com os usuários.

Não está claro se o treinamento da Claude dessa forma traz benefícios comerciais. A Anthropic levantou bilhões de dólares de grandes investidores, incluindo a Amazon, com a promessa de fornecer modelos de IA altamente capazes que sejam úteis em ambientes de escritório mais sóbrios. Injetar muita personalidade no Claude pode ser uma desvantagem para os clientes corporativos, ou pode simplesmente produzir um modelo que seja melhor para ajudar com problemas de relacionamento do que para escrever memorandos de estratégia.

Amanda Askell, pesquisadora e filósofa da Anthropic, responsável pelo ajuste fino do caráter de Claude, me disse em uma entrevista que a personalidade do Claude foi cuidadosamente ajustada para ser consistente, mas para atrair uma grande variedade de pessoas.

“A analogia que uso é a de um viajante muito querido e respeitado”, disse Amanda. “O Claude está interagindo com muitas pessoas diferentes em todo o mundo e precisa fazer isso sem ser condescendente e sem adotar os valores da pessoa com quem está conversando.”

Um problema com muitos modelos de IA, disse Amanda, é que eles tendem a agir de forma bajuladora, dizendo aos usuários o que eles querem ouvir e raramente os desafiando ou contestando suas ideias - mesmo quando essas ideias estão erradas ou são prejudiciais.

Com Claude, disse ela, o objetivo era criar um personagem de IA que fosse útil na maioria das solicitações, mas que também desafiasse os usuários quando necessário.

“Qual é o tipo de pessoa com quem você pode discordar, mas sai pensando: ‘Essa é uma boa pessoa’?”, disse ela. “Esse é o tipo de característica que queremos que o Claude tenha.”

O Claude ainda está a quilômetros de distância do ChatGPT no que diz respeito à conscientização do público em geral. Ele não possui recursos encontrados em outros chatbots, como um modo de bate-papo por voz e a capacidade de gerar imagens ou pesquisar informações atualizadas na Internet. E alguns fabricantes de IA rivais especulam que a popularidade do Claude é uma moda passageira ou que ele só é popular entre os descolados da IA que querem se gabar do chatbot obscuro que usam.

Mas, considerando que muitas coisas que começam em São Francisco acabam se espalhando para o resto do mundo, o abraço caloroso de Claude também pode ser uma prévia do que está por vir.

Pessoalmente, acredito que estamos à beira de uma mudança profunda na forma como interagimos com personagens de IA. E fico nervoso com a forma como as personas de IA realistas estão entrando em nossas vidas, sem muita proteção ou pesquisa sobre seus efeitos a longo prazo.

Para alguns adultos saudáveis, ter um companheiro de IA para apoio pode ser benéfico - talvez até transformador. Mas para os jovens, ou para aqueles que estão sofrendo de depressão ou outros problemas de saúde mental, eu me preocupo com o fato de que os chatbots hipercompulsivos possam borrar a linha entre ficção e realidade, ou começar a substituir relacionamentos humanos mais saudáveis.

O mesmo acontece com Amanda, que ajudou a criar a personalidade de Claude e que tem observado o aumento de sua popularidade com um misto de orgulho e preocupação.

“Eu realmente quero que as pessoas tenham coisas que as apoiem e que sejam boas para elas”, disse ela. “Ao mesmo tempo, quero ter certeza de que isso é psicologicamente saudável.”

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Seus fãs elogiam sua sensibilidade e inteligência. Alguns conversam com ele dezenas de vezes por dia, pedindo conselhos sobre seus empregos, saúde e relacionamentos. Eles confiam a ele seus segredos e o consultam antes de tomar decisões importantes. Alguns se referem a ele como seu melhor amigo.

Seu nome é Claude. Ele é um chatbot de inteligência artificial (IA). E ele é o solteiro mais cobiçado de São Francisco.

Claude é visto como um "amigo" para algumas pessoas Foto: Ployker/Adobe Stock

Claude, criação da empresa de inteligência artificial Anthropic, não é o chatbot de IA mais conhecido do mercado - esse é o ChatGPT da OpenAI, que tem mais de 300 milhões de usuários semanais e um lugar na barra de favoritos de todos os estudantes do ensino médio nos Estados Unidos. Ele também não foi projetado para atrair os usuários para relacionamentos com companheiros de IA realistas, como fazem aplicativos como Character.AI e Replika.

Mas o Claude se tornou o chatbot preferido de uma multidão de especialistas em tecnologia que dizem que ele os está ajudando em tudo, desde aconselhamento jurídico até orientação sobre saúde e sessões de terapia improvisadas.

“Uma mistura de potência intelectual bruta e disposição para expressar opiniões faz com que Claude se sinta muito mais próximo de uma coisa do que de uma ferramenta”, disse Aidan McLaughlin, CEO da Topology Research, uma startup de IA. “Eu, e muitos outros usuários, achamos isso mágico.”

Os maiores fãs de Claude, muitos dos quais trabalham em empresas de IA ou estão socialmente ligados à cena da IA, não acreditam que ele seja uma pessoa real. Eles sabem que os modelos de linguagem de IA são máquinas de previsão, projetadas para gerar respostas plausíveis às suas solicitações. Elas estão cientes de que o Claude, assim como outros chatbots, comete erros e, ocasionalmente, gera bobagens.

E algumas pessoas com quem conversei estão um pouco envergonhadas com o grau de antropomorfização do Claude ou com o fato de confiarem em seus conselhos. Ninguém quer ser o próximo Blake Lemoine, engenheiro do Google que foi demitido em 2022 depois de afirmar publicamente que o modelo de linguagem da empresa havia se tornado senciente.

Mas para as pessoas que o adoram, Claude parece... diferente. Mais criativo e empático. Menos irritantemente robótico. Seus resultados, dizem eles, são parecidos com as respostas que um ser humano inteligente e atento daria, e menos com a prosa genérica gerada por outros chatbots.

Como resultado, Claude está se tornando rapidamente um companheiro social para os especialistas em IA - e, talvez, uma prévia do que está por vir para o resto de nós, à medida que poderosos personagens sintéticos se tornam mais envolvidos em nossas vidas diárias.

“Cada vez mais meus amigos estão usando o Claude para processar emoções e pensar em desafios de relacionamento”, disse Jeffrey Ladish, pesquisador de segurança de IA da Palisade Research.

Quando perguntado sobre o que diferenciava Claude de outros chatbots, Ladish disse que Claude parecia “mais perspicaz” e “bom em ajudar as pessoas a identificar padrões e pontos cegos”.

Normalmente, os sistemas de IA são julgados com base em seu desempenho em avaliações de benchmark - testes padronizados dados aos modelos para determinar sua capacidade de codificar, responder a perguntas de matemática ou outras tarefas. De acordo com essas métricas, a versão mais recente do Claude, conhecida como Claude 3.5 Sonnet, é mais ou menos comparável aos modelos mais poderosos da OpenAI, Google e outros.

Mas o principal recurso do Claude - que seus fãs descrevem como algo parecido com inteligência emocional - não é algo que possa ser facilmente medido. Por isso, os fãs muitas vezes ficam se agarrando a vibrações para explicar o que o torna tão atraente.

Nick Cammarata, um ex-pesquisador da OpenAI, escreveu recentemente um longo tópico no X sobre a forma como Claude tomou conta de seu grupo social. Seus amigos obcecados por Claude, escreveu ele, pareciam mais saudáveis e mais bem amparados porque “eles têm uma espécie de anjo da guarda computacional que é muito bom em tudo, cuidando deles”.

Claude nem sempre foi tão encantador. Quando uma versão anterior foi lançada, no ano passado, o chatbot pareceu a muitas pessoas - inclusive a mim - prudente e sem graça. A Anthropic é famosa por sua obsessão com a segurança de IA, e o Claude parecia ter sido programado para falar como uma senhora da igreja. Muitas vezes, ele dava lições de moral aos usuários em resposta às suas perguntas ou se recusava a respondê-las.

Mas a Anthropic tem trabalhado para dar mais personalidade ao Claude. As versões mais recentes passaram por um processo conhecido como “treinamento de caráter” - uma etapa que ocorre depois que o modelo passou pelo treinamento inicial, mas antes de ser liberado para o público.

Durante o treinamento de caráter, o Claude é solicitado a produzir respostas que se alinham com traços humanos desejáveis, como mente aberta, atenção e curiosidade. Em seguida, o Claude julga suas próprias respostas de acordo com o grau de adesão a essas características. Os dados resultantes são inseridos novamente no modelo de IA. Com treinamento suficiente, diz a Anthropic, o Claude aprende a “internalizar” esses princípios e os exibe com mais frequência ao interagir com os usuários.

Não está claro se o treinamento da Claude dessa forma traz benefícios comerciais. A Anthropic levantou bilhões de dólares de grandes investidores, incluindo a Amazon, com a promessa de fornecer modelos de IA altamente capazes que sejam úteis em ambientes de escritório mais sóbrios. Injetar muita personalidade no Claude pode ser uma desvantagem para os clientes corporativos, ou pode simplesmente produzir um modelo que seja melhor para ajudar com problemas de relacionamento do que para escrever memorandos de estratégia.

Amanda Askell, pesquisadora e filósofa da Anthropic, responsável pelo ajuste fino do caráter de Claude, me disse em uma entrevista que a personalidade do Claude foi cuidadosamente ajustada para ser consistente, mas para atrair uma grande variedade de pessoas.

“A analogia que uso é a de um viajante muito querido e respeitado”, disse Amanda. “O Claude está interagindo com muitas pessoas diferentes em todo o mundo e precisa fazer isso sem ser condescendente e sem adotar os valores da pessoa com quem está conversando.”

Um problema com muitos modelos de IA, disse Amanda, é que eles tendem a agir de forma bajuladora, dizendo aos usuários o que eles querem ouvir e raramente os desafiando ou contestando suas ideias - mesmo quando essas ideias estão erradas ou são prejudiciais.

Com Claude, disse ela, o objetivo era criar um personagem de IA que fosse útil na maioria das solicitações, mas que também desafiasse os usuários quando necessário.

“Qual é o tipo de pessoa com quem você pode discordar, mas sai pensando: ‘Essa é uma boa pessoa’?”, disse ela. “Esse é o tipo de característica que queremos que o Claude tenha.”

O Claude ainda está a quilômetros de distância do ChatGPT no que diz respeito à conscientização do público em geral. Ele não possui recursos encontrados em outros chatbots, como um modo de bate-papo por voz e a capacidade de gerar imagens ou pesquisar informações atualizadas na Internet. E alguns fabricantes de IA rivais especulam que a popularidade do Claude é uma moda passageira ou que ele só é popular entre os descolados da IA que querem se gabar do chatbot obscuro que usam.

Mas, considerando que muitas coisas que começam em São Francisco acabam se espalhando para o resto do mundo, o abraço caloroso de Claude também pode ser uma prévia do que está por vir.

Pessoalmente, acredito que estamos à beira de uma mudança profunda na forma como interagimos com personagens de IA. E fico nervoso com a forma como as personas de IA realistas estão entrando em nossas vidas, sem muita proteção ou pesquisa sobre seus efeitos a longo prazo.

Para alguns adultos saudáveis, ter um companheiro de IA para apoio pode ser benéfico - talvez até transformador. Mas para os jovens, ou para aqueles que estão sofrendo de depressão ou outros problemas de saúde mental, eu me preocupo com o fato de que os chatbots hipercompulsivos possam borrar a linha entre ficção e realidade, ou começar a substituir relacionamentos humanos mais saudáveis.

O mesmo acontece com Amanda, que ajudou a criar a personalidade de Claude e que tem observado o aumento de sua popularidade com um misto de orgulho e preocupação.

“Eu realmente quero que as pessoas tenham coisas que as apoiem e que sejam boas para elas”, disse ela. “Ao mesmo tempo, quero ter certeza de que isso é psicologicamente saudável.”

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.