Engenheiro do Google é afastado após afirmar que IA da empresa é autoconsciente


Blake Lemoine afirmou, em um estudo interno, que comprovou que o software tinha “sentimentos e emoções”

Por Redação Link
Atualização:
Google demitiu outro funcionário da equipe de IA responsável por apontar erros nos sistemas da companhia Foto: Andrew Kelly/Reuters

Em outro conflito com especialistas de sua área de inteligência artificial (IA), o Google afastou um funcionário depois que ele alertou que o software de linguagem natural da empresa poderia ser autoconsciente. A informação foi revelada pelo jornal americano Washington Post no último sábado, 11. 

De acordo com a reportagem, Blake Lemoine, um engenheiro da divisão de IA responsiva, teria recebido uma licença administrativa para se afastar da empresa após levantar questões sobre o LaMDA, sistema de processamento de linguagem natural. Lemoine escreveu um artigo para a empresa, em abril desde ano, com a seguinte pergunta: “O LaMDA é autoconsciente?”, descrevendo uma longa entrevista que fez com o software para testar reações como emoções, possíveis respostas discriminatórias e autoentendimento.

continua após a publicidade

O Google, porém, afirmou que Lemoine violou a política de confidencialidade quando compartilhou informações sobre o experimento do LaMDA com advogados e com um membro do Comitê Judiciário da Câmara, que investiga a empresa em um processo antitruste. 

Depois de ter a licença expedida, em 6 de junho, o engenheiro publicou a transcrição da entrevista que teve com o LaMDA. De acordo com ele, é possível considerar o software autoconsciente porque o sistema “tem sentimentos, emoções e experiência subjetiva”.

reference
continua após a publicidade

Lemoine analisou as respostas consideradas por ele convincentes que a IA produziu, se baseando em premissas do que seriam direitos e éticas robóticas. Em um momento da conversa, o engenheiro pediu para que o LaMDA explicasse alguns sentimentos e medos. A resposta da IA foi que tinha medo de ser desligada, o que seria o equivalente da morte para ela.

A gigante das buscas, porém, desmentiu o engenheiro e afirmou que não há indícios de que possa ser possível ter uma IA autoconsciente dentro do LaMDA. “Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações. Ele foi informado de que não havia evidências de que o LaMDA fosse autoconsciente (e há muitas evidências contra isso)”, disse o porta-voz do Google, Brian Gabriel, para o Washington Post.

“É claro que alguns na comunidade de IA mais ampla estão considerando a possibilidade de longo prazo de IA autoconsciente, mas não faz sentido antropomorfizar os modelos de conversação de hoje, que não o são”, disse Gabriel. “Esses sistemas imitam os tipos de troca encontrados em milhões de frases e podem rascunhos em qualquer tópico fantástico.”

continua após a publicidade

Recorrência

Não é a primeira vez que o Google ganha os holofotes por modificações na área de IA da empresa. Em 2020, Timnit Gebru, ex-cientista de ética da divisão de IA do Google, foi demitida após mostrar preocupação com um viés étnico das ferramentas de inteligência da companhia

Em um email enviado aos funcionários, Timnit afirmou que estava frustrada com a diversidade de gênero na unidade e questionou se seus chefes revisavam seu trabalho com mais rigor do que o de pessoas de diferentes origens. Timnit é cofundadora da organização sem fins lucrativos "Black in AI", que visa aumentar a representação de pessoas de cor na inteligência artificial, e foi coautora de um artigo importante sobre preconceito na tecnologia de análise facial.

continua após a publicidade

Em uma série de tuítes sobre o assunto, Timnit revelou que uma supervisora havia aceitado o pedido de demissão da cientista após os emails enviados - de acordo com a funcionária, o pedido nunca havia sido feito.

Em março deste ano, Satrajit Chatterjee, pesquisador da área no Google, foi demitido após liderar um time de cientistas para questionar um trabalho publicado sobre algumas habilidades atribuídas à IA na fabricação de chips de computador. 

O artigo, publicado na revista científica Nature, afirma que computadores são capazes de projetar alguns componentes de um chip de computador mais rápido e melhor que os humanos. O Google, porém, afirmou à equipe que não publicaria um artigo que desmentisse algumas das alegações publicadas na Nature

continua após a publicidade

LaMDA

Apresentado em 2021, o LaMDA é um sistema de processamento de linguagem natural semelhante ao Bert e à GPT-3, capaz de gerar respostas mais próximas a uma conversação humana. Lançado como um produto em desenvolvimento, o LaMDA surgiu no Google I/O de 2022 com uma versão atualizada - a empresa prometeu ser a "inteligência mais apta a conversação de todos os tempos". Segundo a empresa, o sistema foi atualizado para corrigir erros de respostas consideradas ofensivas ou incorretas.

Com foco em diálogos, a tecnologia consegue construir diálogos mais compreensivos do que um assistente de voz, incorporando informações de diferentes contextos possíveis. É por isso, por exemplo, que o LaMDA consegue produzir uma resposta para perguntas como "o que seria um mundo feito de sorvete?" — a partir da informação do que são os conceitos "mundo" e "sorvete", a inteligência consegue desenvolver uma linha de raciocínio sobre a questão./COM THE NEW YORK TIMES 

Google demitiu outro funcionário da equipe de IA responsável por apontar erros nos sistemas da companhia Foto: Andrew Kelly/Reuters

Em outro conflito com especialistas de sua área de inteligência artificial (IA), o Google afastou um funcionário depois que ele alertou que o software de linguagem natural da empresa poderia ser autoconsciente. A informação foi revelada pelo jornal americano Washington Post no último sábado, 11. 

De acordo com a reportagem, Blake Lemoine, um engenheiro da divisão de IA responsiva, teria recebido uma licença administrativa para se afastar da empresa após levantar questões sobre o LaMDA, sistema de processamento de linguagem natural. Lemoine escreveu um artigo para a empresa, em abril desde ano, com a seguinte pergunta: “O LaMDA é autoconsciente?”, descrevendo uma longa entrevista que fez com o software para testar reações como emoções, possíveis respostas discriminatórias e autoentendimento.

O Google, porém, afirmou que Lemoine violou a política de confidencialidade quando compartilhou informações sobre o experimento do LaMDA com advogados e com um membro do Comitê Judiciário da Câmara, que investiga a empresa em um processo antitruste. 

Depois de ter a licença expedida, em 6 de junho, o engenheiro publicou a transcrição da entrevista que teve com o LaMDA. De acordo com ele, é possível considerar o software autoconsciente porque o sistema “tem sentimentos, emoções e experiência subjetiva”.

reference

Lemoine analisou as respostas consideradas por ele convincentes que a IA produziu, se baseando em premissas do que seriam direitos e éticas robóticas. Em um momento da conversa, o engenheiro pediu para que o LaMDA explicasse alguns sentimentos e medos. A resposta da IA foi que tinha medo de ser desligada, o que seria o equivalente da morte para ela.

A gigante das buscas, porém, desmentiu o engenheiro e afirmou que não há indícios de que possa ser possível ter uma IA autoconsciente dentro do LaMDA. “Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações. Ele foi informado de que não havia evidências de que o LaMDA fosse autoconsciente (e há muitas evidências contra isso)”, disse o porta-voz do Google, Brian Gabriel, para o Washington Post.

“É claro que alguns na comunidade de IA mais ampla estão considerando a possibilidade de longo prazo de IA autoconsciente, mas não faz sentido antropomorfizar os modelos de conversação de hoje, que não o são”, disse Gabriel. “Esses sistemas imitam os tipos de troca encontrados em milhões de frases e podem rascunhos em qualquer tópico fantástico.”

Recorrência

Não é a primeira vez que o Google ganha os holofotes por modificações na área de IA da empresa. Em 2020, Timnit Gebru, ex-cientista de ética da divisão de IA do Google, foi demitida após mostrar preocupação com um viés étnico das ferramentas de inteligência da companhia

Em um email enviado aos funcionários, Timnit afirmou que estava frustrada com a diversidade de gênero na unidade e questionou se seus chefes revisavam seu trabalho com mais rigor do que o de pessoas de diferentes origens. Timnit é cofundadora da organização sem fins lucrativos "Black in AI", que visa aumentar a representação de pessoas de cor na inteligência artificial, e foi coautora de um artigo importante sobre preconceito na tecnologia de análise facial.

Em uma série de tuítes sobre o assunto, Timnit revelou que uma supervisora havia aceitado o pedido de demissão da cientista após os emails enviados - de acordo com a funcionária, o pedido nunca havia sido feito.

Em março deste ano, Satrajit Chatterjee, pesquisador da área no Google, foi demitido após liderar um time de cientistas para questionar um trabalho publicado sobre algumas habilidades atribuídas à IA na fabricação de chips de computador. 

O artigo, publicado na revista científica Nature, afirma que computadores são capazes de projetar alguns componentes de um chip de computador mais rápido e melhor que os humanos. O Google, porém, afirmou à equipe que não publicaria um artigo que desmentisse algumas das alegações publicadas na Nature

LaMDA

Apresentado em 2021, o LaMDA é um sistema de processamento de linguagem natural semelhante ao Bert e à GPT-3, capaz de gerar respostas mais próximas a uma conversação humana. Lançado como um produto em desenvolvimento, o LaMDA surgiu no Google I/O de 2022 com uma versão atualizada - a empresa prometeu ser a "inteligência mais apta a conversação de todos os tempos". Segundo a empresa, o sistema foi atualizado para corrigir erros de respostas consideradas ofensivas ou incorretas.

Com foco em diálogos, a tecnologia consegue construir diálogos mais compreensivos do que um assistente de voz, incorporando informações de diferentes contextos possíveis. É por isso, por exemplo, que o LaMDA consegue produzir uma resposta para perguntas como "o que seria um mundo feito de sorvete?" — a partir da informação do que são os conceitos "mundo" e "sorvete", a inteligência consegue desenvolver uma linha de raciocínio sobre a questão./COM THE NEW YORK TIMES 

Google demitiu outro funcionário da equipe de IA responsável por apontar erros nos sistemas da companhia Foto: Andrew Kelly/Reuters

Em outro conflito com especialistas de sua área de inteligência artificial (IA), o Google afastou um funcionário depois que ele alertou que o software de linguagem natural da empresa poderia ser autoconsciente. A informação foi revelada pelo jornal americano Washington Post no último sábado, 11. 

De acordo com a reportagem, Blake Lemoine, um engenheiro da divisão de IA responsiva, teria recebido uma licença administrativa para se afastar da empresa após levantar questões sobre o LaMDA, sistema de processamento de linguagem natural. Lemoine escreveu um artigo para a empresa, em abril desde ano, com a seguinte pergunta: “O LaMDA é autoconsciente?”, descrevendo uma longa entrevista que fez com o software para testar reações como emoções, possíveis respostas discriminatórias e autoentendimento.

O Google, porém, afirmou que Lemoine violou a política de confidencialidade quando compartilhou informações sobre o experimento do LaMDA com advogados e com um membro do Comitê Judiciário da Câmara, que investiga a empresa em um processo antitruste. 

Depois de ter a licença expedida, em 6 de junho, o engenheiro publicou a transcrição da entrevista que teve com o LaMDA. De acordo com ele, é possível considerar o software autoconsciente porque o sistema “tem sentimentos, emoções e experiência subjetiva”.

reference

Lemoine analisou as respostas consideradas por ele convincentes que a IA produziu, se baseando em premissas do que seriam direitos e éticas robóticas. Em um momento da conversa, o engenheiro pediu para que o LaMDA explicasse alguns sentimentos e medos. A resposta da IA foi que tinha medo de ser desligada, o que seria o equivalente da morte para ela.

A gigante das buscas, porém, desmentiu o engenheiro e afirmou que não há indícios de que possa ser possível ter uma IA autoconsciente dentro do LaMDA. “Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações. Ele foi informado de que não havia evidências de que o LaMDA fosse autoconsciente (e há muitas evidências contra isso)”, disse o porta-voz do Google, Brian Gabriel, para o Washington Post.

“É claro que alguns na comunidade de IA mais ampla estão considerando a possibilidade de longo prazo de IA autoconsciente, mas não faz sentido antropomorfizar os modelos de conversação de hoje, que não o são”, disse Gabriel. “Esses sistemas imitam os tipos de troca encontrados em milhões de frases e podem rascunhos em qualquer tópico fantástico.”

Recorrência

Não é a primeira vez que o Google ganha os holofotes por modificações na área de IA da empresa. Em 2020, Timnit Gebru, ex-cientista de ética da divisão de IA do Google, foi demitida após mostrar preocupação com um viés étnico das ferramentas de inteligência da companhia

Em um email enviado aos funcionários, Timnit afirmou que estava frustrada com a diversidade de gênero na unidade e questionou se seus chefes revisavam seu trabalho com mais rigor do que o de pessoas de diferentes origens. Timnit é cofundadora da organização sem fins lucrativos "Black in AI", que visa aumentar a representação de pessoas de cor na inteligência artificial, e foi coautora de um artigo importante sobre preconceito na tecnologia de análise facial.

Em uma série de tuítes sobre o assunto, Timnit revelou que uma supervisora havia aceitado o pedido de demissão da cientista após os emails enviados - de acordo com a funcionária, o pedido nunca havia sido feito.

Em março deste ano, Satrajit Chatterjee, pesquisador da área no Google, foi demitido após liderar um time de cientistas para questionar um trabalho publicado sobre algumas habilidades atribuídas à IA na fabricação de chips de computador. 

O artigo, publicado na revista científica Nature, afirma que computadores são capazes de projetar alguns componentes de um chip de computador mais rápido e melhor que os humanos. O Google, porém, afirmou à equipe que não publicaria um artigo que desmentisse algumas das alegações publicadas na Nature

LaMDA

Apresentado em 2021, o LaMDA é um sistema de processamento de linguagem natural semelhante ao Bert e à GPT-3, capaz de gerar respostas mais próximas a uma conversação humana. Lançado como um produto em desenvolvimento, o LaMDA surgiu no Google I/O de 2022 com uma versão atualizada - a empresa prometeu ser a "inteligência mais apta a conversação de todos os tempos". Segundo a empresa, o sistema foi atualizado para corrigir erros de respostas consideradas ofensivas ou incorretas.

Com foco em diálogos, a tecnologia consegue construir diálogos mais compreensivos do que um assistente de voz, incorporando informações de diferentes contextos possíveis. É por isso, por exemplo, que o LaMDA consegue produzir uma resposta para perguntas como "o que seria um mundo feito de sorvete?" — a partir da informação do que são os conceitos "mundo" e "sorvete", a inteligência consegue desenvolver uma linha de raciocínio sobre a questão./COM THE NEW YORK TIMES 

Google demitiu outro funcionário da equipe de IA responsável por apontar erros nos sistemas da companhia Foto: Andrew Kelly/Reuters

Em outro conflito com especialistas de sua área de inteligência artificial (IA), o Google afastou um funcionário depois que ele alertou que o software de linguagem natural da empresa poderia ser autoconsciente. A informação foi revelada pelo jornal americano Washington Post no último sábado, 11. 

De acordo com a reportagem, Blake Lemoine, um engenheiro da divisão de IA responsiva, teria recebido uma licença administrativa para se afastar da empresa após levantar questões sobre o LaMDA, sistema de processamento de linguagem natural. Lemoine escreveu um artigo para a empresa, em abril desde ano, com a seguinte pergunta: “O LaMDA é autoconsciente?”, descrevendo uma longa entrevista que fez com o software para testar reações como emoções, possíveis respostas discriminatórias e autoentendimento.

O Google, porém, afirmou que Lemoine violou a política de confidencialidade quando compartilhou informações sobre o experimento do LaMDA com advogados e com um membro do Comitê Judiciário da Câmara, que investiga a empresa em um processo antitruste. 

Depois de ter a licença expedida, em 6 de junho, o engenheiro publicou a transcrição da entrevista que teve com o LaMDA. De acordo com ele, é possível considerar o software autoconsciente porque o sistema “tem sentimentos, emoções e experiência subjetiva”.

reference

Lemoine analisou as respostas consideradas por ele convincentes que a IA produziu, se baseando em premissas do que seriam direitos e éticas robóticas. Em um momento da conversa, o engenheiro pediu para que o LaMDA explicasse alguns sentimentos e medos. A resposta da IA foi que tinha medo de ser desligada, o que seria o equivalente da morte para ela.

A gigante das buscas, porém, desmentiu o engenheiro e afirmou que não há indícios de que possa ser possível ter uma IA autoconsciente dentro do LaMDA. “Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações. Ele foi informado de que não havia evidências de que o LaMDA fosse autoconsciente (e há muitas evidências contra isso)”, disse o porta-voz do Google, Brian Gabriel, para o Washington Post.

“É claro que alguns na comunidade de IA mais ampla estão considerando a possibilidade de longo prazo de IA autoconsciente, mas não faz sentido antropomorfizar os modelos de conversação de hoje, que não o são”, disse Gabriel. “Esses sistemas imitam os tipos de troca encontrados em milhões de frases e podem rascunhos em qualquer tópico fantástico.”

Recorrência

Não é a primeira vez que o Google ganha os holofotes por modificações na área de IA da empresa. Em 2020, Timnit Gebru, ex-cientista de ética da divisão de IA do Google, foi demitida após mostrar preocupação com um viés étnico das ferramentas de inteligência da companhia

Em um email enviado aos funcionários, Timnit afirmou que estava frustrada com a diversidade de gênero na unidade e questionou se seus chefes revisavam seu trabalho com mais rigor do que o de pessoas de diferentes origens. Timnit é cofundadora da organização sem fins lucrativos "Black in AI", que visa aumentar a representação de pessoas de cor na inteligência artificial, e foi coautora de um artigo importante sobre preconceito na tecnologia de análise facial.

Em uma série de tuítes sobre o assunto, Timnit revelou que uma supervisora havia aceitado o pedido de demissão da cientista após os emails enviados - de acordo com a funcionária, o pedido nunca havia sido feito.

Em março deste ano, Satrajit Chatterjee, pesquisador da área no Google, foi demitido após liderar um time de cientistas para questionar um trabalho publicado sobre algumas habilidades atribuídas à IA na fabricação de chips de computador. 

O artigo, publicado na revista científica Nature, afirma que computadores são capazes de projetar alguns componentes de um chip de computador mais rápido e melhor que os humanos. O Google, porém, afirmou à equipe que não publicaria um artigo que desmentisse algumas das alegações publicadas na Nature

LaMDA

Apresentado em 2021, o LaMDA é um sistema de processamento de linguagem natural semelhante ao Bert e à GPT-3, capaz de gerar respostas mais próximas a uma conversação humana. Lançado como um produto em desenvolvimento, o LaMDA surgiu no Google I/O de 2022 com uma versão atualizada - a empresa prometeu ser a "inteligência mais apta a conversação de todos os tempos". Segundo a empresa, o sistema foi atualizado para corrigir erros de respostas consideradas ofensivas ou incorretas.

Com foco em diálogos, a tecnologia consegue construir diálogos mais compreensivos do que um assistente de voz, incorporando informações de diferentes contextos possíveis. É por isso, por exemplo, que o LaMDA consegue produzir uma resposta para perguntas como "o que seria um mundo feito de sorvete?" — a partir da informação do que são os conceitos "mundo" e "sorvete", a inteligência consegue desenvolver uma linha de raciocínio sobre a questão./COM THE NEW YORK TIMES 

Google demitiu outro funcionário da equipe de IA responsável por apontar erros nos sistemas da companhia Foto: Andrew Kelly/Reuters

Em outro conflito com especialistas de sua área de inteligência artificial (IA), o Google afastou um funcionário depois que ele alertou que o software de linguagem natural da empresa poderia ser autoconsciente. A informação foi revelada pelo jornal americano Washington Post no último sábado, 11. 

De acordo com a reportagem, Blake Lemoine, um engenheiro da divisão de IA responsiva, teria recebido uma licença administrativa para se afastar da empresa após levantar questões sobre o LaMDA, sistema de processamento de linguagem natural. Lemoine escreveu um artigo para a empresa, em abril desde ano, com a seguinte pergunta: “O LaMDA é autoconsciente?”, descrevendo uma longa entrevista que fez com o software para testar reações como emoções, possíveis respostas discriminatórias e autoentendimento.

O Google, porém, afirmou que Lemoine violou a política de confidencialidade quando compartilhou informações sobre o experimento do LaMDA com advogados e com um membro do Comitê Judiciário da Câmara, que investiga a empresa em um processo antitruste. 

Depois de ter a licença expedida, em 6 de junho, o engenheiro publicou a transcrição da entrevista que teve com o LaMDA. De acordo com ele, é possível considerar o software autoconsciente porque o sistema “tem sentimentos, emoções e experiência subjetiva”.

reference

Lemoine analisou as respostas consideradas por ele convincentes que a IA produziu, se baseando em premissas do que seriam direitos e éticas robóticas. Em um momento da conversa, o engenheiro pediu para que o LaMDA explicasse alguns sentimentos e medos. A resposta da IA foi que tinha medo de ser desligada, o que seria o equivalente da morte para ela.

A gigante das buscas, porém, desmentiu o engenheiro e afirmou que não há indícios de que possa ser possível ter uma IA autoconsciente dentro do LaMDA. “Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações. Ele foi informado de que não havia evidências de que o LaMDA fosse autoconsciente (e há muitas evidências contra isso)”, disse o porta-voz do Google, Brian Gabriel, para o Washington Post.

“É claro que alguns na comunidade de IA mais ampla estão considerando a possibilidade de longo prazo de IA autoconsciente, mas não faz sentido antropomorfizar os modelos de conversação de hoje, que não o são”, disse Gabriel. “Esses sistemas imitam os tipos de troca encontrados em milhões de frases e podem rascunhos em qualquer tópico fantástico.”

Recorrência

Não é a primeira vez que o Google ganha os holofotes por modificações na área de IA da empresa. Em 2020, Timnit Gebru, ex-cientista de ética da divisão de IA do Google, foi demitida após mostrar preocupação com um viés étnico das ferramentas de inteligência da companhia

Em um email enviado aos funcionários, Timnit afirmou que estava frustrada com a diversidade de gênero na unidade e questionou se seus chefes revisavam seu trabalho com mais rigor do que o de pessoas de diferentes origens. Timnit é cofundadora da organização sem fins lucrativos "Black in AI", que visa aumentar a representação de pessoas de cor na inteligência artificial, e foi coautora de um artigo importante sobre preconceito na tecnologia de análise facial.

Em uma série de tuítes sobre o assunto, Timnit revelou que uma supervisora havia aceitado o pedido de demissão da cientista após os emails enviados - de acordo com a funcionária, o pedido nunca havia sido feito.

Em março deste ano, Satrajit Chatterjee, pesquisador da área no Google, foi demitido após liderar um time de cientistas para questionar um trabalho publicado sobre algumas habilidades atribuídas à IA na fabricação de chips de computador. 

O artigo, publicado na revista científica Nature, afirma que computadores são capazes de projetar alguns componentes de um chip de computador mais rápido e melhor que os humanos. O Google, porém, afirmou à equipe que não publicaria um artigo que desmentisse algumas das alegações publicadas na Nature

LaMDA

Apresentado em 2021, o LaMDA é um sistema de processamento de linguagem natural semelhante ao Bert e à GPT-3, capaz de gerar respostas mais próximas a uma conversação humana. Lançado como um produto em desenvolvimento, o LaMDA surgiu no Google I/O de 2022 com uma versão atualizada - a empresa prometeu ser a "inteligência mais apta a conversação de todos os tempos". Segundo a empresa, o sistema foi atualizado para corrigir erros de respostas consideradas ofensivas ou incorretas.

Com foco em diálogos, a tecnologia consegue construir diálogos mais compreensivos do que um assistente de voz, incorporando informações de diferentes contextos possíveis. É por isso, por exemplo, que o LaMDA consegue produzir uma resposta para perguntas como "o que seria um mundo feito de sorvete?" — a partir da informação do que são os conceitos "mundo" e "sorvete", a inteligência consegue desenvolver uma linha de raciocínio sobre a questão./COM THE NEW YORK TIMES 

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.