Por dentro da rede

Opinião|‘Desaprendizado de máquina’ pode tornar inteligência artificial mais justa e ética


Introduzir vieses humanos no código e eliminar dados viciosos pode tornar sistemas mais eficientes

Por Demi Getschko

As duas vertentes da tecnologia que mais estão em evidência hoje são a inteligência artificial (IA) e a computação quântica.

Ambas são intensamente dependentes de recursos e infraestrutura: para que uma aplicação IA funcione, além da programação envolvida (e que hoje, até, pode ser encontrada em forma aberta), é necessário um grande poder computacional e enormes bases de dados que possam servir ao treinamento ou à busca de conclusões. A computação quântica é algo bem mais críptico, exigindo ambiente específicos e muito bem controlado fisicamente. Formas de regulação para ambas estão em intenso debate.

Certamente há muitos pontos de atenção referentes à IA, onde o que se pretende é avaliar e minimizar riscos que os sistemas possam acarretar. Expressões-chave comuns na discussão são “IA centrada no humano”, “IA com base ética”, “IA que não aprofunde viéses e preconceitos”.

continua após a publicidade
Inteligência artificial ganhou impulso com a chegada do ChatGPT ao mercado, em novembro de 2022 Foto: Dado Ruvic/Reuters - 31/3/2023

Especificamente sobre viéses, a discussão se intensifica quando envolve “decisões por IA”, como tem ocorrido quando a IA se envolve em processos judiciais e julgamentos. Sua capacidade de digestão da imensa massa de dados, historicamente gerada pelos humanos, torna a IA numa auxiliar muito importante para abarcar o que existe. Mas daí a que se respaldem decisões autônomas da IA vai ainda uma grande distância.

Ao usar formas de “aprendizagem”, especialmente as não assistidas por humanos, as conclusões a que a máquina chega são, naturalmente, apenas resultantes dos dados que a treinaram. Dados enviesados podem gerar aprendizado vicioso, ou simplemente incompleto. Mas o interessante é que, mesmo com dados neutros, as “decisões” podem ser julgadas inadequadas do ponto de vista humano. Ou seja, pode ser importante introduzir um “viés humano” nas decisões de IA, mesmo quando, em tese, ela está usando bases neutras.

continua após a publicidade
Com a ‘desaprendizagem de máquina’, a IA poderia gerar resultados mais próximos dos objetivos éticos e sociais que se espera

Nesse tema, surge hoje um novo conceito: o de “desaprendizagem” de máquina. Formas de fazer com que determinados aspectos ou conjuntos de dados passem a ser ignorados no processo de aprendizagem - uma espécie de esquecimento seletivo. Vários artigos de conhecidos especialistas na área defendem que, com uma seletiva ação de “desaprendizagem”, a IA poderia gerar resultados mais próximos dos objetivos éticos e sociais que se espera, entre eles mais inclusão, justiça e equidade. O alerta aqui é que se abre uma porta para manipulação eventualmente não controlável do que a ferramenta geraria per se.

Quanto ao tema de legislação, entre as várias propostas que circulam por aí há as que responsabilizariam o desenvolvedor por eventuais danos que a IA gere. Em analogia com outras ferramentas, seria como responsabilizar o inventor do martelo por danos que ele causar. Quem maneja um martelo é que deve assumir a responsabilidade pelo que faz. O martelo em si não é ético nem aético.

continua após a publicidade

São decisões complexas, e devemos ter cautela nos passos a dar. Os “apocalípticos” citariam Heidegger, que era bastante crítico quanto aos efeitos da tecnologia nos humanos. Em em sua última entrevista (1966), ele fecha com: “Só um deus poderá nos salvar…”

As duas vertentes da tecnologia que mais estão em evidência hoje são a inteligência artificial (IA) e a computação quântica.

Ambas são intensamente dependentes de recursos e infraestrutura: para que uma aplicação IA funcione, além da programação envolvida (e que hoje, até, pode ser encontrada em forma aberta), é necessário um grande poder computacional e enormes bases de dados que possam servir ao treinamento ou à busca de conclusões. A computação quântica é algo bem mais críptico, exigindo ambiente específicos e muito bem controlado fisicamente. Formas de regulação para ambas estão em intenso debate.

Certamente há muitos pontos de atenção referentes à IA, onde o que se pretende é avaliar e minimizar riscos que os sistemas possam acarretar. Expressões-chave comuns na discussão são “IA centrada no humano”, “IA com base ética”, “IA que não aprofunde viéses e preconceitos”.

Inteligência artificial ganhou impulso com a chegada do ChatGPT ao mercado, em novembro de 2022 Foto: Dado Ruvic/Reuters - 31/3/2023

Especificamente sobre viéses, a discussão se intensifica quando envolve “decisões por IA”, como tem ocorrido quando a IA se envolve em processos judiciais e julgamentos. Sua capacidade de digestão da imensa massa de dados, historicamente gerada pelos humanos, torna a IA numa auxiliar muito importante para abarcar o que existe. Mas daí a que se respaldem decisões autônomas da IA vai ainda uma grande distância.

Ao usar formas de “aprendizagem”, especialmente as não assistidas por humanos, as conclusões a que a máquina chega são, naturalmente, apenas resultantes dos dados que a treinaram. Dados enviesados podem gerar aprendizado vicioso, ou simplemente incompleto. Mas o interessante é que, mesmo com dados neutros, as “decisões” podem ser julgadas inadequadas do ponto de vista humano. Ou seja, pode ser importante introduzir um “viés humano” nas decisões de IA, mesmo quando, em tese, ela está usando bases neutras.

Com a ‘desaprendizagem de máquina’, a IA poderia gerar resultados mais próximos dos objetivos éticos e sociais que se espera

Nesse tema, surge hoje um novo conceito: o de “desaprendizagem” de máquina. Formas de fazer com que determinados aspectos ou conjuntos de dados passem a ser ignorados no processo de aprendizagem - uma espécie de esquecimento seletivo. Vários artigos de conhecidos especialistas na área defendem que, com uma seletiva ação de “desaprendizagem”, a IA poderia gerar resultados mais próximos dos objetivos éticos e sociais que se espera, entre eles mais inclusão, justiça e equidade. O alerta aqui é que se abre uma porta para manipulação eventualmente não controlável do que a ferramenta geraria per se.

Quanto ao tema de legislação, entre as várias propostas que circulam por aí há as que responsabilizariam o desenvolvedor por eventuais danos que a IA gere. Em analogia com outras ferramentas, seria como responsabilizar o inventor do martelo por danos que ele causar. Quem maneja um martelo é que deve assumir a responsabilidade pelo que faz. O martelo em si não é ético nem aético.

São decisões complexas, e devemos ter cautela nos passos a dar. Os “apocalípticos” citariam Heidegger, que era bastante crítico quanto aos efeitos da tecnologia nos humanos. Em em sua última entrevista (1966), ele fecha com: “Só um deus poderá nos salvar…”

As duas vertentes da tecnologia que mais estão em evidência hoje são a inteligência artificial (IA) e a computação quântica.

Ambas são intensamente dependentes de recursos e infraestrutura: para que uma aplicação IA funcione, além da programação envolvida (e que hoje, até, pode ser encontrada em forma aberta), é necessário um grande poder computacional e enormes bases de dados que possam servir ao treinamento ou à busca de conclusões. A computação quântica é algo bem mais críptico, exigindo ambiente específicos e muito bem controlado fisicamente. Formas de regulação para ambas estão em intenso debate.

Certamente há muitos pontos de atenção referentes à IA, onde o que se pretende é avaliar e minimizar riscos que os sistemas possam acarretar. Expressões-chave comuns na discussão são “IA centrada no humano”, “IA com base ética”, “IA que não aprofunde viéses e preconceitos”.

Inteligência artificial ganhou impulso com a chegada do ChatGPT ao mercado, em novembro de 2022 Foto: Dado Ruvic/Reuters - 31/3/2023

Especificamente sobre viéses, a discussão se intensifica quando envolve “decisões por IA”, como tem ocorrido quando a IA se envolve em processos judiciais e julgamentos. Sua capacidade de digestão da imensa massa de dados, historicamente gerada pelos humanos, torna a IA numa auxiliar muito importante para abarcar o que existe. Mas daí a que se respaldem decisões autônomas da IA vai ainda uma grande distância.

Ao usar formas de “aprendizagem”, especialmente as não assistidas por humanos, as conclusões a que a máquina chega são, naturalmente, apenas resultantes dos dados que a treinaram. Dados enviesados podem gerar aprendizado vicioso, ou simplemente incompleto. Mas o interessante é que, mesmo com dados neutros, as “decisões” podem ser julgadas inadequadas do ponto de vista humano. Ou seja, pode ser importante introduzir um “viés humano” nas decisões de IA, mesmo quando, em tese, ela está usando bases neutras.

Com a ‘desaprendizagem de máquina’, a IA poderia gerar resultados mais próximos dos objetivos éticos e sociais que se espera

Nesse tema, surge hoje um novo conceito: o de “desaprendizagem” de máquina. Formas de fazer com que determinados aspectos ou conjuntos de dados passem a ser ignorados no processo de aprendizagem - uma espécie de esquecimento seletivo. Vários artigos de conhecidos especialistas na área defendem que, com uma seletiva ação de “desaprendizagem”, a IA poderia gerar resultados mais próximos dos objetivos éticos e sociais que se espera, entre eles mais inclusão, justiça e equidade. O alerta aqui é que se abre uma porta para manipulação eventualmente não controlável do que a ferramenta geraria per se.

Quanto ao tema de legislação, entre as várias propostas que circulam por aí há as que responsabilizariam o desenvolvedor por eventuais danos que a IA gere. Em analogia com outras ferramentas, seria como responsabilizar o inventor do martelo por danos que ele causar. Quem maneja um martelo é que deve assumir a responsabilidade pelo que faz. O martelo em si não é ético nem aético.

São decisões complexas, e devemos ter cautela nos passos a dar. Os “apocalípticos” citariam Heidegger, que era bastante crítico quanto aos efeitos da tecnologia nos humanos. Em em sua última entrevista (1966), ele fecha com: “Só um deus poderá nos salvar…”

As duas vertentes da tecnologia que mais estão em evidência hoje são a inteligência artificial (IA) e a computação quântica.

Ambas são intensamente dependentes de recursos e infraestrutura: para que uma aplicação IA funcione, além da programação envolvida (e que hoje, até, pode ser encontrada em forma aberta), é necessário um grande poder computacional e enormes bases de dados que possam servir ao treinamento ou à busca de conclusões. A computação quântica é algo bem mais críptico, exigindo ambiente específicos e muito bem controlado fisicamente. Formas de regulação para ambas estão em intenso debate.

Certamente há muitos pontos de atenção referentes à IA, onde o que se pretende é avaliar e minimizar riscos que os sistemas possam acarretar. Expressões-chave comuns na discussão são “IA centrada no humano”, “IA com base ética”, “IA que não aprofunde viéses e preconceitos”.

Inteligência artificial ganhou impulso com a chegada do ChatGPT ao mercado, em novembro de 2022 Foto: Dado Ruvic/Reuters - 31/3/2023

Especificamente sobre viéses, a discussão se intensifica quando envolve “decisões por IA”, como tem ocorrido quando a IA se envolve em processos judiciais e julgamentos. Sua capacidade de digestão da imensa massa de dados, historicamente gerada pelos humanos, torna a IA numa auxiliar muito importante para abarcar o que existe. Mas daí a que se respaldem decisões autônomas da IA vai ainda uma grande distância.

Ao usar formas de “aprendizagem”, especialmente as não assistidas por humanos, as conclusões a que a máquina chega são, naturalmente, apenas resultantes dos dados que a treinaram. Dados enviesados podem gerar aprendizado vicioso, ou simplemente incompleto. Mas o interessante é que, mesmo com dados neutros, as “decisões” podem ser julgadas inadequadas do ponto de vista humano. Ou seja, pode ser importante introduzir um “viés humano” nas decisões de IA, mesmo quando, em tese, ela está usando bases neutras.

Com a ‘desaprendizagem de máquina’, a IA poderia gerar resultados mais próximos dos objetivos éticos e sociais que se espera

Nesse tema, surge hoje um novo conceito: o de “desaprendizagem” de máquina. Formas de fazer com que determinados aspectos ou conjuntos de dados passem a ser ignorados no processo de aprendizagem - uma espécie de esquecimento seletivo. Vários artigos de conhecidos especialistas na área defendem que, com uma seletiva ação de “desaprendizagem”, a IA poderia gerar resultados mais próximos dos objetivos éticos e sociais que se espera, entre eles mais inclusão, justiça e equidade. O alerta aqui é que se abre uma porta para manipulação eventualmente não controlável do que a ferramenta geraria per se.

Quanto ao tema de legislação, entre as várias propostas que circulam por aí há as que responsabilizariam o desenvolvedor por eventuais danos que a IA gere. Em analogia com outras ferramentas, seria como responsabilizar o inventor do martelo por danos que ele causar. Quem maneja um martelo é que deve assumir a responsabilidade pelo que faz. O martelo em si não é ético nem aético.

São decisões complexas, e devemos ter cautela nos passos a dar. Os “apocalípticos” citariam Heidegger, que era bastante crítico quanto aos efeitos da tecnologia nos humanos. Em em sua última entrevista (1966), ele fecha com: “Só um deus poderá nos salvar…”

As duas vertentes da tecnologia que mais estão em evidência hoje são a inteligência artificial (IA) e a computação quântica.

Ambas são intensamente dependentes de recursos e infraestrutura: para que uma aplicação IA funcione, além da programação envolvida (e que hoje, até, pode ser encontrada em forma aberta), é necessário um grande poder computacional e enormes bases de dados que possam servir ao treinamento ou à busca de conclusões. A computação quântica é algo bem mais críptico, exigindo ambiente específicos e muito bem controlado fisicamente. Formas de regulação para ambas estão em intenso debate.

Certamente há muitos pontos de atenção referentes à IA, onde o que se pretende é avaliar e minimizar riscos que os sistemas possam acarretar. Expressões-chave comuns na discussão são “IA centrada no humano”, “IA com base ética”, “IA que não aprofunde viéses e preconceitos”.

Inteligência artificial ganhou impulso com a chegada do ChatGPT ao mercado, em novembro de 2022 Foto: Dado Ruvic/Reuters - 31/3/2023

Especificamente sobre viéses, a discussão se intensifica quando envolve “decisões por IA”, como tem ocorrido quando a IA se envolve em processos judiciais e julgamentos. Sua capacidade de digestão da imensa massa de dados, historicamente gerada pelos humanos, torna a IA numa auxiliar muito importante para abarcar o que existe. Mas daí a que se respaldem decisões autônomas da IA vai ainda uma grande distância.

Ao usar formas de “aprendizagem”, especialmente as não assistidas por humanos, as conclusões a que a máquina chega são, naturalmente, apenas resultantes dos dados que a treinaram. Dados enviesados podem gerar aprendizado vicioso, ou simplemente incompleto. Mas o interessante é que, mesmo com dados neutros, as “decisões” podem ser julgadas inadequadas do ponto de vista humano. Ou seja, pode ser importante introduzir um “viés humano” nas decisões de IA, mesmo quando, em tese, ela está usando bases neutras.

Com a ‘desaprendizagem de máquina’, a IA poderia gerar resultados mais próximos dos objetivos éticos e sociais que se espera

Nesse tema, surge hoje um novo conceito: o de “desaprendizagem” de máquina. Formas de fazer com que determinados aspectos ou conjuntos de dados passem a ser ignorados no processo de aprendizagem - uma espécie de esquecimento seletivo. Vários artigos de conhecidos especialistas na área defendem que, com uma seletiva ação de “desaprendizagem”, a IA poderia gerar resultados mais próximos dos objetivos éticos e sociais que se espera, entre eles mais inclusão, justiça e equidade. O alerta aqui é que se abre uma porta para manipulação eventualmente não controlável do que a ferramenta geraria per se.

Quanto ao tema de legislação, entre as várias propostas que circulam por aí há as que responsabilizariam o desenvolvedor por eventuais danos que a IA gere. Em analogia com outras ferramentas, seria como responsabilizar o inventor do martelo por danos que ele causar. Quem maneja um martelo é que deve assumir a responsabilidade pelo que faz. O martelo em si não é ético nem aético.

São decisões complexas, e devemos ter cautela nos passos a dar. Os “apocalípticos” citariam Heidegger, que era bastante crítico quanto aos efeitos da tecnologia nos humanos. Em em sua última entrevista (1966), ele fecha com: “Só um deus poderá nos salvar…”

Opinião por Demi Getschko

É engenheiro eletricista

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.