Google não conseguirá evitar erros da sua inteligência artificial, dizem especialistas


No mês passado, viralizaram exemplos de erros toscos cometidos pela IA da empresa

Por Sabrina Brito

No final de maio, viralizaram nas redes sociais prints de respostas dadas pelo AI Overview, recurso do Google que apresenta resultados de buscas gerados por meio de inteligência artificial (IA). O que chamou a atenção na maioria dos casos foi o fato de que muitas das respostas dadas pela IA eram absurdas ou totalmente erradas - é um problema, conhecido no mundo científico como alucinação, que pode não ter solução, avaliam especalistas.

Em um caso, foi relatado que cobras, conhecidas por serem répteis, seriam mamíferos. Em outro, o resultado dizia que astronautas já encontraram gatos na Lua. O Google ainda aconselhou usuários a comerem ao menos uma pedra por dia e a colocarem cola não tóxica na pizza para “fixar” o queijo.

Após a constatação das respostas equivocadas, a gigante se viu obrigada a reduzir a implementação do AI Overview, diminuindo a quantidade de páginas de resultados que utilizam o recurso, de acordo com o New York Times. O recurso ainda não está disponível no Brasil.

continua após a publicidade
Erros cometidos por IA vão permanecer, não será possível removê-los Foto: Jason Henry/NYT

Em comunicado, a chefe dos Negócios de Busca do Google, Liz Reid, afirmou que “alguns AI Overviews certamente apresentaram resultados estranhos, imprecisos ou inúteis”. Segundo ela, o objetivo do mecanismo era dar retornos rápidos sem que fosse necessário procurar por respostas em uma lista de páginas e sites.

Como consequência, no dia 24 de maio, o Google relatou à AFP que está tomando “medidas rápidas” para aperfeiçoar os resultados de buscas obtidos por meio de inteligência artificial. Esse, no entanto, pode ser um problema sem solução.

continua após a publicidade

“Quando fazemos uma pergunta a um desses modelos, seus algoritmos buscam a probabilidade de uma palavra ser a melhor opção que se encaixe na frase para te dar a melhor resposta. A lógica é sempre uma probabilidade. O modelo não entende o significado, apenas age estatisticamente”, explica Dora Kaufman, professora do curso de Tecnologias da Inteligência e Design Digital da Pontifícia Universidade Católica de São Paulo.

“Por exemplo, se você pergunta sobre igreja, o sistema aprendeu que ‘padre’ aparece com muita frequência associado à igreja nos textos utilizados no treinamento, então o sistema atribui peso 10 a padre. Por isso, quando você pergunta sobre igreja a chance é grande de na resposta aparecer a palavra ‘padre’.”

Dessa forma, afirma Dora Kaufman, com o uso da atual técnica, não há como eliminar os erros. “Existem mecanismos de mitigar, reduzir os erros, mas não eliminá-los – e, mesmo para reduzir, grande parte são ainda experimentações; é tudo muito novo, muito recente.”

continua após a publicidade

Segundo ela, essa técnica “aprende”, ou melhora, com a interação; logo, a tendência é que, quanto mais for experimentada, mais assertivas fiquem as respostas.

Para Fabio Cozman, professor da Escola Politécnica e diretor do Centro de Inteligência Artificial da Universidade de São Paulo, é importante notar que, de forma geral, temos poucas informações sobre a estrutura interna dos serviços de inteligência artificial oferecidos por gigantes da tecnologia..

continua após a publicidade

“Pelas informações que temos, o Google está usando modelos de linguagem para sumarizar textos e responder perguntas”, diz. “O problema disso é que, dado um conjunto de palavras, as sequências mais prováveis nem sempre se alinham com o significado maior de um texto. Por exemplo, pode ser mais provável escrever ‘pedra’ após a expressão ‘retire do saco a’, mas essa não é a melhor palavra a escrever quando o assunto é uma receita de alimento.” Como consequência, diz, é possível treinar para que erros sejam detectados; porém, a tecnologia de modelos de linguagem ainda não tem condições de garantir 100% de acerto.

É também no que acredita Fernando Osório, professor do departamento de Sistemas de Computação da Universidade de São Paulo em São Carlos. Segundo ele, aparentemente, erros como aqueles cometidos pelo AI Overview não têm conserto – ao menos não com os métodos que são empregados atualmente.

“É preciso muito mais do que isso para ter modelos que se aproximem da inteligência humana - afinal, é isso que esperamos de uma ‘máquina inteligente’. Esperamos que ela não vá nos aconselhar a colocar cola em uma pizza, que ela não vá errar contas básicas de matemática, que não vá dizer absurdos para uma criança, que ela ‘saiba’ conceitos corretos sobre ciência e humanidade”, elabora. “Esperamos que uma máquina não alucine, não dê respostas sem sentido, não enlouqueça, não faça besteiras – apesar de os humanos fazerem tudo isso.”

continua após a publicidade

Para Osório, esse tipo de modelo não tem meios de evitar erros como aqueles cometidos pelo Google, pois estão desconectados de um conhecimento mais bem estruturado e de uma realidade que não entendem. Assim, dependem de um bom contexto a ser fornecido, o que não pode ser garantido.

Desse modo, conclui Dora Kaufman, é preciso tomar cuidado: nenhuma resposta de modelo de inteligência artificial pode ser considerada soberana. “O recomendado é que o usuário tenha conhecimento suficiente sobre o tema que está demandando para ter discernimento de identificar erros”, argumenta.

No final de maio, viralizaram nas redes sociais prints de respostas dadas pelo AI Overview, recurso do Google que apresenta resultados de buscas gerados por meio de inteligência artificial (IA). O que chamou a atenção na maioria dos casos foi o fato de que muitas das respostas dadas pela IA eram absurdas ou totalmente erradas - é um problema, conhecido no mundo científico como alucinação, que pode não ter solução, avaliam especalistas.

Em um caso, foi relatado que cobras, conhecidas por serem répteis, seriam mamíferos. Em outro, o resultado dizia que astronautas já encontraram gatos na Lua. O Google ainda aconselhou usuários a comerem ao menos uma pedra por dia e a colocarem cola não tóxica na pizza para “fixar” o queijo.

Após a constatação das respostas equivocadas, a gigante se viu obrigada a reduzir a implementação do AI Overview, diminuindo a quantidade de páginas de resultados que utilizam o recurso, de acordo com o New York Times. O recurso ainda não está disponível no Brasil.

Erros cometidos por IA vão permanecer, não será possível removê-los Foto: Jason Henry/NYT

Em comunicado, a chefe dos Negócios de Busca do Google, Liz Reid, afirmou que “alguns AI Overviews certamente apresentaram resultados estranhos, imprecisos ou inúteis”. Segundo ela, o objetivo do mecanismo era dar retornos rápidos sem que fosse necessário procurar por respostas em uma lista de páginas e sites.

Como consequência, no dia 24 de maio, o Google relatou à AFP que está tomando “medidas rápidas” para aperfeiçoar os resultados de buscas obtidos por meio de inteligência artificial. Esse, no entanto, pode ser um problema sem solução.

“Quando fazemos uma pergunta a um desses modelos, seus algoritmos buscam a probabilidade de uma palavra ser a melhor opção que se encaixe na frase para te dar a melhor resposta. A lógica é sempre uma probabilidade. O modelo não entende o significado, apenas age estatisticamente”, explica Dora Kaufman, professora do curso de Tecnologias da Inteligência e Design Digital da Pontifícia Universidade Católica de São Paulo.

“Por exemplo, se você pergunta sobre igreja, o sistema aprendeu que ‘padre’ aparece com muita frequência associado à igreja nos textos utilizados no treinamento, então o sistema atribui peso 10 a padre. Por isso, quando você pergunta sobre igreja a chance é grande de na resposta aparecer a palavra ‘padre’.”

Dessa forma, afirma Dora Kaufman, com o uso da atual técnica, não há como eliminar os erros. “Existem mecanismos de mitigar, reduzir os erros, mas não eliminá-los – e, mesmo para reduzir, grande parte são ainda experimentações; é tudo muito novo, muito recente.”

Segundo ela, essa técnica “aprende”, ou melhora, com a interação; logo, a tendência é que, quanto mais for experimentada, mais assertivas fiquem as respostas.

Para Fabio Cozman, professor da Escola Politécnica e diretor do Centro de Inteligência Artificial da Universidade de São Paulo, é importante notar que, de forma geral, temos poucas informações sobre a estrutura interna dos serviços de inteligência artificial oferecidos por gigantes da tecnologia..

“Pelas informações que temos, o Google está usando modelos de linguagem para sumarizar textos e responder perguntas”, diz. “O problema disso é que, dado um conjunto de palavras, as sequências mais prováveis nem sempre se alinham com o significado maior de um texto. Por exemplo, pode ser mais provável escrever ‘pedra’ após a expressão ‘retire do saco a’, mas essa não é a melhor palavra a escrever quando o assunto é uma receita de alimento.” Como consequência, diz, é possível treinar para que erros sejam detectados; porém, a tecnologia de modelos de linguagem ainda não tem condições de garantir 100% de acerto.

É também no que acredita Fernando Osório, professor do departamento de Sistemas de Computação da Universidade de São Paulo em São Carlos. Segundo ele, aparentemente, erros como aqueles cometidos pelo AI Overview não têm conserto – ao menos não com os métodos que são empregados atualmente.

“É preciso muito mais do que isso para ter modelos que se aproximem da inteligência humana - afinal, é isso que esperamos de uma ‘máquina inteligente’. Esperamos que ela não vá nos aconselhar a colocar cola em uma pizza, que ela não vá errar contas básicas de matemática, que não vá dizer absurdos para uma criança, que ela ‘saiba’ conceitos corretos sobre ciência e humanidade”, elabora. “Esperamos que uma máquina não alucine, não dê respostas sem sentido, não enlouqueça, não faça besteiras – apesar de os humanos fazerem tudo isso.”

Para Osório, esse tipo de modelo não tem meios de evitar erros como aqueles cometidos pelo Google, pois estão desconectados de um conhecimento mais bem estruturado e de uma realidade que não entendem. Assim, dependem de um bom contexto a ser fornecido, o que não pode ser garantido.

Desse modo, conclui Dora Kaufman, é preciso tomar cuidado: nenhuma resposta de modelo de inteligência artificial pode ser considerada soberana. “O recomendado é que o usuário tenha conhecimento suficiente sobre o tema que está demandando para ter discernimento de identificar erros”, argumenta.

No final de maio, viralizaram nas redes sociais prints de respostas dadas pelo AI Overview, recurso do Google que apresenta resultados de buscas gerados por meio de inteligência artificial (IA). O que chamou a atenção na maioria dos casos foi o fato de que muitas das respostas dadas pela IA eram absurdas ou totalmente erradas - é um problema, conhecido no mundo científico como alucinação, que pode não ter solução, avaliam especalistas.

Em um caso, foi relatado que cobras, conhecidas por serem répteis, seriam mamíferos. Em outro, o resultado dizia que astronautas já encontraram gatos na Lua. O Google ainda aconselhou usuários a comerem ao menos uma pedra por dia e a colocarem cola não tóxica na pizza para “fixar” o queijo.

Após a constatação das respostas equivocadas, a gigante se viu obrigada a reduzir a implementação do AI Overview, diminuindo a quantidade de páginas de resultados que utilizam o recurso, de acordo com o New York Times. O recurso ainda não está disponível no Brasil.

Erros cometidos por IA vão permanecer, não será possível removê-los Foto: Jason Henry/NYT

Em comunicado, a chefe dos Negócios de Busca do Google, Liz Reid, afirmou que “alguns AI Overviews certamente apresentaram resultados estranhos, imprecisos ou inúteis”. Segundo ela, o objetivo do mecanismo era dar retornos rápidos sem que fosse necessário procurar por respostas em uma lista de páginas e sites.

Como consequência, no dia 24 de maio, o Google relatou à AFP que está tomando “medidas rápidas” para aperfeiçoar os resultados de buscas obtidos por meio de inteligência artificial. Esse, no entanto, pode ser um problema sem solução.

“Quando fazemos uma pergunta a um desses modelos, seus algoritmos buscam a probabilidade de uma palavra ser a melhor opção que se encaixe na frase para te dar a melhor resposta. A lógica é sempre uma probabilidade. O modelo não entende o significado, apenas age estatisticamente”, explica Dora Kaufman, professora do curso de Tecnologias da Inteligência e Design Digital da Pontifícia Universidade Católica de São Paulo.

“Por exemplo, se você pergunta sobre igreja, o sistema aprendeu que ‘padre’ aparece com muita frequência associado à igreja nos textos utilizados no treinamento, então o sistema atribui peso 10 a padre. Por isso, quando você pergunta sobre igreja a chance é grande de na resposta aparecer a palavra ‘padre’.”

Dessa forma, afirma Dora Kaufman, com o uso da atual técnica, não há como eliminar os erros. “Existem mecanismos de mitigar, reduzir os erros, mas não eliminá-los – e, mesmo para reduzir, grande parte são ainda experimentações; é tudo muito novo, muito recente.”

Segundo ela, essa técnica “aprende”, ou melhora, com a interação; logo, a tendência é que, quanto mais for experimentada, mais assertivas fiquem as respostas.

Para Fabio Cozman, professor da Escola Politécnica e diretor do Centro de Inteligência Artificial da Universidade de São Paulo, é importante notar que, de forma geral, temos poucas informações sobre a estrutura interna dos serviços de inteligência artificial oferecidos por gigantes da tecnologia..

“Pelas informações que temos, o Google está usando modelos de linguagem para sumarizar textos e responder perguntas”, diz. “O problema disso é que, dado um conjunto de palavras, as sequências mais prováveis nem sempre se alinham com o significado maior de um texto. Por exemplo, pode ser mais provável escrever ‘pedra’ após a expressão ‘retire do saco a’, mas essa não é a melhor palavra a escrever quando o assunto é uma receita de alimento.” Como consequência, diz, é possível treinar para que erros sejam detectados; porém, a tecnologia de modelos de linguagem ainda não tem condições de garantir 100% de acerto.

É também no que acredita Fernando Osório, professor do departamento de Sistemas de Computação da Universidade de São Paulo em São Carlos. Segundo ele, aparentemente, erros como aqueles cometidos pelo AI Overview não têm conserto – ao menos não com os métodos que são empregados atualmente.

“É preciso muito mais do que isso para ter modelos que se aproximem da inteligência humana - afinal, é isso que esperamos de uma ‘máquina inteligente’. Esperamos que ela não vá nos aconselhar a colocar cola em uma pizza, que ela não vá errar contas básicas de matemática, que não vá dizer absurdos para uma criança, que ela ‘saiba’ conceitos corretos sobre ciência e humanidade”, elabora. “Esperamos que uma máquina não alucine, não dê respostas sem sentido, não enlouqueça, não faça besteiras – apesar de os humanos fazerem tudo isso.”

Para Osório, esse tipo de modelo não tem meios de evitar erros como aqueles cometidos pelo Google, pois estão desconectados de um conhecimento mais bem estruturado e de uma realidade que não entendem. Assim, dependem de um bom contexto a ser fornecido, o que não pode ser garantido.

Desse modo, conclui Dora Kaufman, é preciso tomar cuidado: nenhuma resposta de modelo de inteligência artificial pode ser considerada soberana. “O recomendado é que o usuário tenha conhecimento suficiente sobre o tema que está demandando para ter discernimento de identificar erros”, argumenta.

No final de maio, viralizaram nas redes sociais prints de respostas dadas pelo AI Overview, recurso do Google que apresenta resultados de buscas gerados por meio de inteligência artificial (IA). O que chamou a atenção na maioria dos casos foi o fato de que muitas das respostas dadas pela IA eram absurdas ou totalmente erradas - é um problema, conhecido no mundo científico como alucinação, que pode não ter solução, avaliam especalistas.

Em um caso, foi relatado que cobras, conhecidas por serem répteis, seriam mamíferos. Em outro, o resultado dizia que astronautas já encontraram gatos na Lua. O Google ainda aconselhou usuários a comerem ao menos uma pedra por dia e a colocarem cola não tóxica na pizza para “fixar” o queijo.

Após a constatação das respostas equivocadas, a gigante se viu obrigada a reduzir a implementação do AI Overview, diminuindo a quantidade de páginas de resultados que utilizam o recurso, de acordo com o New York Times. O recurso ainda não está disponível no Brasil.

Erros cometidos por IA vão permanecer, não será possível removê-los Foto: Jason Henry/NYT

Em comunicado, a chefe dos Negócios de Busca do Google, Liz Reid, afirmou que “alguns AI Overviews certamente apresentaram resultados estranhos, imprecisos ou inúteis”. Segundo ela, o objetivo do mecanismo era dar retornos rápidos sem que fosse necessário procurar por respostas em uma lista de páginas e sites.

Como consequência, no dia 24 de maio, o Google relatou à AFP que está tomando “medidas rápidas” para aperfeiçoar os resultados de buscas obtidos por meio de inteligência artificial. Esse, no entanto, pode ser um problema sem solução.

“Quando fazemos uma pergunta a um desses modelos, seus algoritmos buscam a probabilidade de uma palavra ser a melhor opção que se encaixe na frase para te dar a melhor resposta. A lógica é sempre uma probabilidade. O modelo não entende o significado, apenas age estatisticamente”, explica Dora Kaufman, professora do curso de Tecnologias da Inteligência e Design Digital da Pontifícia Universidade Católica de São Paulo.

“Por exemplo, se você pergunta sobre igreja, o sistema aprendeu que ‘padre’ aparece com muita frequência associado à igreja nos textos utilizados no treinamento, então o sistema atribui peso 10 a padre. Por isso, quando você pergunta sobre igreja a chance é grande de na resposta aparecer a palavra ‘padre’.”

Dessa forma, afirma Dora Kaufman, com o uso da atual técnica, não há como eliminar os erros. “Existem mecanismos de mitigar, reduzir os erros, mas não eliminá-los – e, mesmo para reduzir, grande parte são ainda experimentações; é tudo muito novo, muito recente.”

Segundo ela, essa técnica “aprende”, ou melhora, com a interação; logo, a tendência é que, quanto mais for experimentada, mais assertivas fiquem as respostas.

Para Fabio Cozman, professor da Escola Politécnica e diretor do Centro de Inteligência Artificial da Universidade de São Paulo, é importante notar que, de forma geral, temos poucas informações sobre a estrutura interna dos serviços de inteligência artificial oferecidos por gigantes da tecnologia..

“Pelas informações que temos, o Google está usando modelos de linguagem para sumarizar textos e responder perguntas”, diz. “O problema disso é que, dado um conjunto de palavras, as sequências mais prováveis nem sempre se alinham com o significado maior de um texto. Por exemplo, pode ser mais provável escrever ‘pedra’ após a expressão ‘retire do saco a’, mas essa não é a melhor palavra a escrever quando o assunto é uma receita de alimento.” Como consequência, diz, é possível treinar para que erros sejam detectados; porém, a tecnologia de modelos de linguagem ainda não tem condições de garantir 100% de acerto.

É também no que acredita Fernando Osório, professor do departamento de Sistemas de Computação da Universidade de São Paulo em São Carlos. Segundo ele, aparentemente, erros como aqueles cometidos pelo AI Overview não têm conserto – ao menos não com os métodos que são empregados atualmente.

“É preciso muito mais do que isso para ter modelos que se aproximem da inteligência humana - afinal, é isso que esperamos de uma ‘máquina inteligente’. Esperamos que ela não vá nos aconselhar a colocar cola em uma pizza, que ela não vá errar contas básicas de matemática, que não vá dizer absurdos para uma criança, que ela ‘saiba’ conceitos corretos sobre ciência e humanidade”, elabora. “Esperamos que uma máquina não alucine, não dê respostas sem sentido, não enlouqueça, não faça besteiras – apesar de os humanos fazerem tudo isso.”

Para Osório, esse tipo de modelo não tem meios de evitar erros como aqueles cometidos pelo Google, pois estão desconectados de um conhecimento mais bem estruturado e de uma realidade que não entendem. Assim, dependem de um bom contexto a ser fornecido, o que não pode ser garantido.

Desse modo, conclui Dora Kaufman, é preciso tomar cuidado: nenhuma resposta de modelo de inteligência artificial pode ser considerada soberana. “O recomendado é que o usuário tenha conhecimento suficiente sobre o tema que está demandando para ter discernimento de identificar erros”, argumenta.

No final de maio, viralizaram nas redes sociais prints de respostas dadas pelo AI Overview, recurso do Google que apresenta resultados de buscas gerados por meio de inteligência artificial (IA). O que chamou a atenção na maioria dos casos foi o fato de que muitas das respostas dadas pela IA eram absurdas ou totalmente erradas - é um problema, conhecido no mundo científico como alucinação, que pode não ter solução, avaliam especalistas.

Em um caso, foi relatado que cobras, conhecidas por serem répteis, seriam mamíferos. Em outro, o resultado dizia que astronautas já encontraram gatos na Lua. O Google ainda aconselhou usuários a comerem ao menos uma pedra por dia e a colocarem cola não tóxica na pizza para “fixar” o queijo.

Após a constatação das respostas equivocadas, a gigante se viu obrigada a reduzir a implementação do AI Overview, diminuindo a quantidade de páginas de resultados que utilizam o recurso, de acordo com o New York Times. O recurso ainda não está disponível no Brasil.

Erros cometidos por IA vão permanecer, não será possível removê-los Foto: Jason Henry/NYT

Em comunicado, a chefe dos Negócios de Busca do Google, Liz Reid, afirmou que “alguns AI Overviews certamente apresentaram resultados estranhos, imprecisos ou inúteis”. Segundo ela, o objetivo do mecanismo era dar retornos rápidos sem que fosse necessário procurar por respostas em uma lista de páginas e sites.

Como consequência, no dia 24 de maio, o Google relatou à AFP que está tomando “medidas rápidas” para aperfeiçoar os resultados de buscas obtidos por meio de inteligência artificial. Esse, no entanto, pode ser um problema sem solução.

“Quando fazemos uma pergunta a um desses modelos, seus algoritmos buscam a probabilidade de uma palavra ser a melhor opção que se encaixe na frase para te dar a melhor resposta. A lógica é sempre uma probabilidade. O modelo não entende o significado, apenas age estatisticamente”, explica Dora Kaufman, professora do curso de Tecnologias da Inteligência e Design Digital da Pontifícia Universidade Católica de São Paulo.

“Por exemplo, se você pergunta sobre igreja, o sistema aprendeu que ‘padre’ aparece com muita frequência associado à igreja nos textos utilizados no treinamento, então o sistema atribui peso 10 a padre. Por isso, quando você pergunta sobre igreja a chance é grande de na resposta aparecer a palavra ‘padre’.”

Dessa forma, afirma Dora Kaufman, com o uso da atual técnica, não há como eliminar os erros. “Existem mecanismos de mitigar, reduzir os erros, mas não eliminá-los – e, mesmo para reduzir, grande parte são ainda experimentações; é tudo muito novo, muito recente.”

Segundo ela, essa técnica “aprende”, ou melhora, com a interação; logo, a tendência é que, quanto mais for experimentada, mais assertivas fiquem as respostas.

Para Fabio Cozman, professor da Escola Politécnica e diretor do Centro de Inteligência Artificial da Universidade de São Paulo, é importante notar que, de forma geral, temos poucas informações sobre a estrutura interna dos serviços de inteligência artificial oferecidos por gigantes da tecnologia..

“Pelas informações que temos, o Google está usando modelos de linguagem para sumarizar textos e responder perguntas”, diz. “O problema disso é que, dado um conjunto de palavras, as sequências mais prováveis nem sempre se alinham com o significado maior de um texto. Por exemplo, pode ser mais provável escrever ‘pedra’ após a expressão ‘retire do saco a’, mas essa não é a melhor palavra a escrever quando o assunto é uma receita de alimento.” Como consequência, diz, é possível treinar para que erros sejam detectados; porém, a tecnologia de modelos de linguagem ainda não tem condições de garantir 100% de acerto.

É também no que acredita Fernando Osório, professor do departamento de Sistemas de Computação da Universidade de São Paulo em São Carlos. Segundo ele, aparentemente, erros como aqueles cometidos pelo AI Overview não têm conserto – ao menos não com os métodos que são empregados atualmente.

“É preciso muito mais do que isso para ter modelos que se aproximem da inteligência humana - afinal, é isso que esperamos de uma ‘máquina inteligente’. Esperamos que ela não vá nos aconselhar a colocar cola em uma pizza, que ela não vá errar contas básicas de matemática, que não vá dizer absurdos para uma criança, que ela ‘saiba’ conceitos corretos sobre ciência e humanidade”, elabora. “Esperamos que uma máquina não alucine, não dê respostas sem sentido, não enlouqueça, não faça besteiras – apesar de os humanos fazerem tudo isso.”

Para Osório, esse tipo de modelo não tem meios de evitar erros como aqueles cometidos pelo Google, pois estão desconectados de um conhecimento mais bem estruturado e de uma realidade que não entendem. Assim, dependem de um bom contexto a ser fornecido, o que não pode ser garantido.

Desse modo, conclui Dora Kaufman, é preciso tomar cuidado: nenhuma resposta de modelo de inteligência artificial pode ser considerada soberana. “O recomendado é que o usuário tenha conhecimento suficiente sobre o tema que está demandando para ter discernimento de identificar erros”, argumenta.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.