Google pede que funcionários não sejam ‘sentimentais’ com o Bard, rival do ChatGPT


Segundo a empresa, é preciso treinar a IA com perguntas e respostas sem emoção e sem aspectos humanos

Por Redação
Atualização:

Após um teste de apresentação do Bard, chatbot inteligente do Google, fornecer respostas erradas, a empresa convocou os funcionários para uma força tarefa de treinamento intensivo, para que a inteligência artificial (IA) não apresente nenhum tipo de resultado enviesado, político ou sentimental aos usuários.

A informação foi repassada para os engenheiros do Google por um email, visto pelo canal americano CNBC, onde Prabhakar Raghavan, vice-presidente de pesquisa da companhia, repassa orientações para o treinamento o Bard — incluindo uma lista o que não fazer com a IA.

“Bard aprende melhor pelo exemplo, então reservar um tempo para reescrever uma resposta cuidadosamente nos ajudará a melhorar o modo”, afirmou Raghavan. “Esta é uma tecnologia empolgante, mas ainda está em seus primeiros dias”.

continua após a publicidade

Entre as orientações, o vice-presidente, corroborado por Sundar Pichai, CEO da companhia, pede para que os funcionários passem de duas a quatro horas diárias dedicadas ao Bard, sempre com comandos “educados, casuais e acessíveis.” Também é aconselhado falar “em primeira pessoa” e manter um “tom neutro e sem opinião”.

Além disso, funcionários estão proibidos de “descrever o Bard como uma pessoa, incitá-lo a demonstrar sentimento ou sugerir que tenha tido experiências humanas”. A orientação foi enviada logo após usuários do novo Bing, buscador da Microsoft, viralizarem respostas contraditórias da IA, com conteúdo sentimental e respostas emotivas.

continua após a publicidade

Ainda, o email ressalta que os funcionários que testarem o Bard vão ganhar uma espécie de medalha digital, que ficará no histórico interno da empresa. Os 10 colaboradores que mais testarem a IA serão chamados para uma reunião com Raghavan.

A preocupação da empresa com o Bard é em acompanhar a Microsoft e a OpenAI na tecnologia do ChatGPT, ferramenta de conversação que tem crescido rapidamente entre usuários, inclusive como um recurso de buscas. Após a apresentação com informações erradas, as ações do Google caíram cerca de 9% na Bolsa americana.

Após um teste de apresentação do Bard, chatbot inteligente do Google, fornecer respostas erradas, a empresa convocou os funcionários para uma força tarefa de treinamento intensivo, para que a inteligência artificial (IA) não apresente nenhum tipo de resultado enviesado, político ou sentimental aos usuários.

A informação foi repassada para os engenheiros do Google por um email, visto pelo canal americano CNBC, onde Prabhakar Raghavan, vice-presidente de pesquisa da companhia, repassa orientações para o treinamento o Bard — incluindo uma lista o que não fazer com a IA.

“Bard aprende melhor pelo exemplo, então reservar um tempo para reescrever uma resposta cuidadosamente nos ajudará a melhorar o modo”, afirmou Raghavan. “Esta é uma tecnologia empolgante, mas ainda está em seus primeiros dias”.

Entre as orientações, o vice-presidente, corroborado por Sundar Pichai, CEO da companhia, pede para que os funcionários passem de duas a quatro horas diárias dedicadas ao Bard, sempre com comandos “educados, casuais e acessíveis.” Também é aconselhado falar “em primeira pessoa” e manter um “tom neutro e sem opinião”.

Além disso, funcionários estão proibidos de “descrever o Bard como uma pessoa, incitá-lo a demonstrar sentimento ou sugerir que tenha tido experiências humanas”. A orientação foi enviada logo após usuários do novo Bing, buscador da Microsoft, viralizarem respostas contraditórias da IA, com conteúdo sentimental e respostas emotivas.

Ainda, o email ressalta que os funcionários que testarem o Bard vão ganhar uma espécie de medalha digital, que ficará no histórico interno da empresa. Os 10 colaboradores que mais testarem a IA serão chamados para uma reunião com Raghavan.

A preocupação da empresa com o Bard é em acompanhar a Microsoft e a OpenAI na tecnologia do ChatGPT, ferramenta de conversação que tem crescido rapidamente entre usuários, inclusive como um recurso de buscas. Após a apresentação com informações erradas, as ações do Google caíram cerca de 9% na Bolsa americana.

Após um teste de apresentação do Bard, chatbot inteligente do Google, fornecer respostas erradas, a empresa convocou os funcionários para uma força tarefa de treinamento intensivo, para que a inteligência artificial (IA) não apresente nenhum tipo de resultado enviesado, político ou sentimental aos usuários.

A informação foi repassada para os engenheiros do Google por um email, visto pelo canal americano CNBC, onde Prabhakar Raghavan, vice-presidente de pesquisa da companhia, repassa orientações para o treinamento o Bard — incluindo uma lista o que não fazer com a IA.

“Bard aprende melhor pelo exemplo, então reservar um tempo para reescrever uma resposta cuidadosamente nos ajudará a melhorar o modo”, afirmou Raghavan. “Esta é uma tecnologia empolgante, mas ainda está em seus primeiros dias”.

Entre as orientações, o vice-presidente, corroborado por Sundar Pichai, CEO da companhia, pede para que os funcionários passem de duas a quatro horas diárias dedicadas ao Bard, sempre com comandos “educados, casuais e acessíveis.” Também é aconselhado falar “em primeira pessoa” e manter um “tom neutro e sem opinião”.

Além disso, funcionários estão proibidos de “descrever o Bard como uma pessoa, incitá-lo a demonstrar sentimento ou sugerir que tenha tido experiências humanas”. A orientação foi enviada logo após usuários do novo Bing, buscador da Microsoft, viralizarem respostas contraditórias da IA, com conteúdo sentimental e respostas emotivas.

Ainda, o email ressalta que os funcionários que testarem o Bard vão ganhar uma espécie de medalha digital, que ficará no histórico interno da empresa. Os 10 colaboradores que mais testarem a IA serão chamados para uma reunião com Raghavan.

A preocupação da empresa com o Bard é em acompanhar a Microsoft e a OpenAI na tecnologia do ChatGPT, ferramenta de conversação que tem crescido rapidamente entre usuários, inclusive como um recurso de buscas. Após a apresentação com informações erradas, as ações do Google caíram cerca de 9% na Bolsa americana.

Após um teste de apresentação do Bard, chatbot inteligente do Google, fornecer respostas erradas, a empresa convocou os funcionários para uma força tarefa de treinamento intensivo, para que a inteligência artificial (IA) não apresente nenhum tipo de resultado enviesado, político ou sentimental aos usuários.

A informação foi repassada para os engenheiros do Google por um email, visto pelo canal americano CNBC, onde Prabhakar Raghavan, vice-presidente de pesquisa da companhia, repassa orientações para o treinamento o Bard — incluindo uma lista o que não fazer com a IA.

“Bard aprende melhor pelo exemplo, então reservar um tempo para reescrever uma resposta cuidadosamente nos ajudará a melhorar o modo”, afirmou Raghavan. “Esta é uma tecnologia empolgante, mas ainda está em seus primeiros dias”.

Entre as orientações, o vice-presidente, corroborado por Sundar Pichai, CEO da companhia, pede para que os funcionários passem de duas a quatro horas diárias dedicadas ao Bard, sempre com comandos “educados, casuais e acessíveis.” Também é aconselhado falar “em primeira pessoa” e manter um “tom neutro e sem opinião”.

Além disso, funcionários estão proibidos de “descrever o Bard como uma pessoa, incitá-lo a demonstrar sentimento ou sugerir que tenha tido experiências humanas”. A orientação foi enviada logo após usuários do novo Bing, buscador da Microsoft, viralizarem respostas contraditórias da IA, com conteúdo sentimental e respostas emotivas.

Ainda, o email ressalta que os funcionários que testarem o Bard vão ganhar uma espécie de medalha digital, que ficará no histórico interno da empresa. Os 10 colaboradores que mais testarem a IA serão chamados para uma reunião com Raghavan.

A preocupação da empresa com o Bard é em acompanhar a Microsoft e a OpenAI na tecnologia do ChatGPT, ferramenta de conversação que tem crescido rapidamente entre usuários, inclusive como um recurso de buscas. Após a apresentação com informações erradas, as ações do Google caíram cerca de 9% na Bolsa americana.

Após um teste de apresentação do Bard, chatbot inteligente do Google, fornecer respostas erradas, a empresa convocou os funcionários para uma força tarefa de treinamento intensivo, para que a inteligência artificial (IA) não apresente nenhum tipo de resultado enviesado, político ou sentimental aos usuários.

A informação foi repassada para os engenheiros do Google por um email, visto pelo canal americano CNBC, onde Prabhakar Raghavan, vice-presidente de pesquisa da companhia, repassa orientações para o treinamento o Bard — incluindo uma lista o que não fazer com a IA.

“Bard aprende melhor pelo exemplo, então reservar um tempo para reescrever uma resposta cuidadosamente nos ajudará a melhorar o modo”, afirmou Raghavan. “Esta é uma tecnologia empolgante, mas ainda está em seus primeiros dias”.

Entre as orientações, o vice-presidente, corroborado por Sundar Pichai, CEO da companhia, pede para que os funcionários passem de duas a quatro horas diárias dedicadas ao Bard, sempre com comandos “educados, casuais e acessíveis.” Também é aconselhado falar “em primeira pessoa” e manter um “tom neutro e sem opinião”.

Além disso, funcionários estão proibidos de “descrever o Bard como uma pessoa, incitá-lo a demonstrar sentimento ou sugerir que tenha tido experiências humanas”. A orientação foi enviada logo após usuários do novo Bing, buscador da Microsoft, viralizarem respostas contraditórias da IA, com conteúdo sentimental e respostas emotivas.

Ainda, o email ressalta que os funcionários que testarem o Bard vão ganhar uma espécie de medalha digital, que ficará no histórico interno da empresa. Os 10 colaboradores que mais testarem a IA serão chamados para uma reunião com Raghavan.

A preocupação da empresa com o Bard é em acompanhar a Microsoft e a OpenAI na tecnologia do ChatGPT, ferramenta de conversação que tem crescido rapidamente entre usuários, inclusive como um recurso de buscas. Após a apresentação com informações erradas, as ações do Google caíram cerca de 9% na Bolsa americana.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.