Jornalismo, educação, tecnologia e as combinações disso tudo

Opinião|Uma inteligência artificial sem ética pode arruinar a sociedade


Por Paulo Silvestre
Cassie Kozyrkov, cientista-chefe de decisões do Google, na palestra de abertura do World Summit AI Americas, no dia 4 de maio 

 

continua após a publicidade

Graças a crescente simbiose com sistemas digitais, nossas decisões cotidianas são influenciadas por eles. O que pouca gente sabe é que, da mesma forma, nós influenciamos as máquinas. Na verdade, graças à inteligência artificial cada vez mais disseminada nesses sistemas, elas efetivamente aprendem conosco. Mas será que estamos sendo bons professores?

A pergunta pode parecer sem sentido, mas embasa um dos temas mais quentes hoje para quem trabalha com inteligência artificial: a ética desses sistemas. Plataformas de IA desenvolvidas de maneira displicente podem ser mais suscetíveis a aprender e a perpetuar coisas ruins. A ironia -e possivelmente o grande risco disso- é que, se elas aprenderem isso de gente preconceituosa, passarão adiante o erro para outras pessoas, por sua vez influenciadas por esses sistemas.

Em outras palavras, uma inteligência artificial cheia de vieses e preconceitos pode piorar -e muito- a sociedade.

continua após a publicidade

Veja esse artigo em vídeo:

continua após a publicidade

Isso obviamente não quer dizer que a inteligência artificial seja ruim ou perigosa. Mas a preocupação da comunidade científica e de desenvolvimento com os vieses na inteligência artificial é tão grande, que foi um dos assuntos que mais ouvi na semana passada, durante minha visita a Montréal (Canadá) para participar do World Summit AI Americas, um dos maiores eventos do setor no mundo. Além do congresso, também fiz trocas muito ricas sobre o assunto em visitas a várias empresas e instituições de pesquisa, organizadas pela Câmara de Comércio Brasil-Canadá e pela Empathy Company.

Na palestra de abertura do Summit, Cassie Kozyrkov, cientista-chefe de decisões do Google, questionou o que faz da inteligência artificial uma tecnologia potencialmente mais perigosa que outras. Segundo ela, "sempre que você fica maior, é mais fácil você pisar nas pessoas a sua volta". E a IA já está bem grande. "Não seja negligente na escala", alertou.

continua após a publicidade

Kozyrkov explicou que, ao contrário de uma programação convencional, em que o desenvolvedor determina explicitamente tudo que a máquina deve fazer em incontáveis linhas de código, na inteligência artificial, a plataforma recebe regras amplas para oferecer boas soluções para um problema. Para conseguir isso, ela é alimentada com conjuntos de dados, que servirão para que tome suas decisões.

O problema é que, se esses dados forem ruins, as decisões também serão ruins. Por isso, a plataforma precisa ter outras regras para corrigir o rumo se algo der errado. Segundo a cientista, quando os exemplos apresentados à máquina forem inadequados, sem uma validação de sua qualidade, a plataforma desenvolverá vieses. "Você precisa testar rigorosamente e construir redes de proteção", sugere.

continua após a publicidade

Podemos fazer uma analogia com a maneira como uma criança aprende. Se ela for constantemente exposta a exemplos ruins, ela aprenderá e reproduzirá isso quando crescer. Por exemplo, se uma criança cresce em uma família racista, existe grande chance de se tornar um adulto racista, pois esse preconceito terá sido normalizado em sua maneira de pensar.

Um dos exemplos mais emblemáticos do problema foi a ferramenta Tay, lançada pela Microsoft em março de 2016. Ela estava por trás de uma conta no Twitter, que simulava uma adolescente criada para conversar com os usuários. Mas a conta ficou no ar por apenas 24 horas! Tudo porque, nesse curto período, depois de conversar com milhares de pessoas (muitas delas mal-intencionadas), ela desenvolveu uma personalidade racista, xenófoba e sexista. Por exemplo, Tay começou a defender Adolf Hitler e seus ideais nazistas, atacar feministas, apoiar propostas do então candidato à presidência americana Donald Trump e se declarar viciada em sexo.

continua após a publicidade

A Microsoft tirou o sistema do ar, mas o perfil no Twitter ainda existe, apesar de ser agora restrito a convidados, não ter mais atualizações e de os piores tuítes terem sido excluídos. Sua manutenção visa promover a reflexão de como sistemas de inteligência artificial podem influenciar pessoas, mas também ser influenciados por elas.

 

IA enviesada nos negócios

A inteligência artificial está presente em dezenas de sistemas que usamos todos os dias, melhorando suas capacidades. Sem ela, os benefícios que nossos smartphones nos oferecem seriam bem mais limitados. Da mesma, forma, ela está presente em plataformas empresariais. E os vieses também podem surgir nesse caso.

Uma das empresas que visitei em Montréal foi o escritório local da agência Thomson Reuters. No encontro, Carter Cousineau, vice-presidente de Data & Model Governance, e Glenda Crisp, líder de Data & Analytics, trouxeram problemas conhecidos da IA nos negócios, como os de sistemas de recrutamento. Ao analisar milhares de currículos para uma vaga, eles podem deixar de fora os melhores profissionais, por vieses que desenvolveram, por exemplo, sobre idade, gênero ou raça dos candidatos.

Para tentar minimizar casos como esse, o Conselho da Cidade de Nova York criou, no fim de 2021, uma lei que exige auditorias externas de algoritmos usados por empresas para contratação ou promoção de funcionários. Também passa a ser obrigatório informar o uso de inteligência artificial nos processos seletivos. Leis semelhantes em diversos países estão sendo criadas, abrangendo também áreas como educação, saúde e habitação.

A adoção da inteligência artificial é um caminho sem volta, que pode trazer grandes resultados para empresas e pessoas. Em outra palestra no Summit, Krish Banerjee, diretor de Data, Analytics & Applied Intelligence da consultoria Accenture, afirmou que 84% dos executivos sabem que precisam investir em IA para atingir seus objetivos e que 75% acreditam que, se não fizerem isso nos próximos cinco anos, podem ser colocados para fora do mercado.

É claro que sim! A inteligência artificial permite a qualquer um ter incrível ganho na velocidade e na qualidade das informações para seu cotidiano. Para indivíduos, isso pode representar uma vida melhor em diferentes aspectos. No caso de empresas, isso pode se refletir em produtos mais alinhados às necessidades do mercado, melhores métodos de produção e clientes mais satisfeitos.

A inteligência artificial precisa, portanto, dos seres humanos! Ela deixa claro a parceria que criamos com as máquinas. Se quisermos que ela nos ajude, precisamos ajudá-la a aprender com bons exemplos, ou seja, dados de qualidade. Nem mesmo a plataforma mais bem desenvolvida será capaz de dar resultados satisfatórios se pessoas não atuarem ativamente na curadoria das informações que a alimenta, eliminando os vieses.

"A inteligência artificial não é mágica, não pode ler sua mente", provocou Kozyrkov no Summit. Se fizemos a nossa parte nesse acordo, a tecnologia pode nos oferecer grandes ganhos. Mas, se não instruirmos bem essa criança, ela pode arruinar a sociedade.

 

Cassie Kozyrkov, cientista-chefe de decisões do Google, na palestra de abertura do World Summit AI Americas, no dia 4 de maio 

 

Graças a crescente simbiose com sistemas digitais, nossas decisões cotidianas são influenciadas por eles. O que pouca gente sabe é que, da mesma forma, nós influenciamos as máquinas. Na verdade, graças à inteligência artificial cada vez mais disseminada nesses sistemas, elas efetivamente aprendem conosco. Mas será que estamos sendo bons professores?

A pergunta pode parecer sem sentido, mas embasa um dos temas mais quentes hoje para quem trabalha com inteligência artificial: a ética desses sistemas. Plataformas de IA desenvolvidas de maneira displicente podem ser mais suscetíveis a aprender e a perpetuar coisas ruins. A ironia -e possivelmente o grande risco disso- é que, se elas aprenderem isso de gente preconceituosa, passarão adiante o erro para outras pessoas, por sua vez influenciadas por esses sistemas.

Em outras palavras, uma inteligência artificial cheia de vieses e preconceitos pode piorar -e muito- a sociedade.

Veja esse artigo em vídeo:

Isso obviamente não quer dizer que a inteligência artificial seja ruim ou perigosa. Mas a preocupação da comunidade científica e de desenvolvimento com os vieses na inteligência artificial é tão grande, que foi um dos assuntos que mais ouvi na semana passada, durante minha visita a Montréal (Canadá) para participar do World Summit AI Americas, um dos maiores eventos do setor no mundo. Além do congresso, também fiz trocas muito ricas sobre o assunto em visitas a várias empresas e instituições de pesquisa, organizadas pela Câmara de Comércio Brasil-Canadá e pela Empathy Company.

Na palestra de abertura do Summit, Cassie Kozyrkov, cientista-chefe de decisões do Google, questionou o que faz da inteligência artificial uma tecnologia potencialmente mais perigosa que outras. Segundo ela, "sempre que você fica maior, é mais fácil você pisar nas pessoas a sua volta". E a IA já está bem grande. "Não seja negligente na escala", alertou.

Kozyrkov explicou que, ao contrário de uma programação convencional, em que o desenvolvedor determina explicitamente tudo que a máquina deve fazer em incontáveis linhas de código, na inteligência artificial, a plataforma recebe regras amplas para oferecer boas soluções para um problema. Para conseguir isso, ela é alimentada com conjuntos de dados, que servirão para que tome suas decisões.

O problema é que, se esses dados forem ruins, as decisões também serão ruins. Por isso, a plataforma precisa ter outras regras para corrigir o rumo se algo der errado. Segundo a cientista, quando os exemplos apresentados à máquina forem inadequados, sem uma validação de sua qualidade, a plataforma desenvolverá vieses. "Você precisa testar rigorosamente e construir redes de proteção", sugere.

Podemos fazer uma analogia com a maneira como uma criança aprende. Se ela for constantemente exposta a exemplos ruins, ela aprenderá e reproduzirá isso quando crescer. Por exemplo, se uma criança cresce em uma família racista, existe grande chance de se tornar um adulto racista, pois esse preconceito terá sido normalizado em sua maneira de pensar.

Um dos exemplos mais emblemáticos do problema foi a ferramenta Tay, lançada pela Microsoft em março de 2016. Ela estava por trás de uma conta no Twitter, que simulava uma adolescente criada para conversar com os usuários. Mas a conta ficou no ar por apenas 24 horas! Tudo porque, nesse curto período, depois de conversar com milhares de pessoas (muitas delas mal-intencionadas), ela desenvolveu uma personalidade racista, xenófoba e sexista. Por exemplo, Tay começou a defender Adolf Hitler e seus ideais nazistas, atacar feministas, apoiar propostas do então candidato à presidência americana Donald Trump e se declarar viciada em sexo.

A Microsoft tirou o sistema do ar, mas o perfil no Twitter ainda existe, apesar de ser agora restrito a convidados, não ter mais atualizações e de os piores tuítes terem sido excluídos. Sua manutenção visa promover a reflexão de como sistemas de inteligência artificial podem influenciar pessoas, mas também ser influenciados por elas.

 

IA enviesada nos negócios

A inteligência artificial está presente em dezenas de sistemas que usamos todos os dias, melhorando suas capacidades. Sem ela, os benefícios que nossos smartphones nos oferecem seriam bem mais limitados. Da mesma, forma, ela está presente em plataformas empresariais. E os vieses também podem surgir nesse caso.

Uma das empresas que visitei em Montréal foi o escritório local da agência Thomson Reuters. No encontro, Carter Cousineau, vice-presidente de Data & Model Governance, e Glenda Crisp, líder de Data & Analytics, trouxeram problemas conhecidos da IA nos negócios, como os de sistemas de recrutamento. Ao analisar milhares de currículos para uma vaga, eles podem deixar de fora os melhores profissionais, por vieses que desenvolveram, por exemplo, sobre idade, gênero ou raça dos candidatos.

Para tentar minimizar casos como esse, o Conselho da Cidade de Nova York criou, no fim de 2021, uma lei que exige auditorias externas de algoritmos usados por empresas para contratação ou promoção de funcionários. Também passa a ser obrigatório informar o uso de inteligência artificial nos processos seletivos. Leis semelhantes em diversos países estão sendo criadas, abrangendo também áreas como educação, saúde e habitação.

A adoção da inteligência artificial é um caminho sem volta, que pode trazer grandes resultados para empresas e pessoas. Em outra palestra no Summit, Krish Banerjee, diretor de Data, Analytics & Applied Intelligence da consultoria Accenture, afirmou que 84% dos executivos sabem que precisam investir em IA para atingir seus objetivos e que 75% acreditam que, se não fizerem isso nos próximos cinco anos, podem ser colocados para fora do mercado.

É claro que sim! A inteligência artificial permite a qualquer um ter incrível ganho na velocidade e na qualidade das informações para seu cotidiano. Para indivíduos, isso pode representar uma vida melhor em diferentes aspectos. No caso de empresas, isso pode se refletir em produtos mais alinhados às necessidades do mercado, melhores métodos de produção e clientes mais satisfeitos.

A inteligência artificial precisa, portanto, dos seres humanos! Ela deixa claro a parceria que criamos com as máquinas. Se quisermos que ela nos ajude, precisamos ajudá-la a aprender com bons exemplos, ou seja, dados de qualidade. Nem mesmo a plataforma mais bem desenvolvida será capaz de dar resultados satisfatórios se pessoas não atuarem ativamente na curadoria das informações que a alimenta, eliminando os vieses.

"A inteligência artificial não é mágica, não pode ler sua mente", provocou Kozyrkov no Summit. Se fizemos a nossa parte nesse acordo, a tecnologia pode nos oferecer grandes ganhos. Mas, se não instruirmos bem essa criança, ela pode arruinar a sociedade.

 

Cassie Kozyrkov, cientista-chefe de decisões do Google, na palestra de abertura do World Summit AI Americas, no dia 4 de maio 

 

Graças a crescente simbiose com sistemas digitais, nossas decisões cotidianas são influenciadas por eles. O que pouca gente sabe é que, da mesma forma, nós influenciamos as máquinas. Na verdade, graças à inteligência artificial cada vez mais disseminada nesses sistemas, elas efetivamente aprendem conosco. Mas será que estamos sendo bons professores?

A pergunta pode parecer sem sentido, mas embasa um dos temas mais quentes hoje para quem trabalha com inteligência artificial: a ética desses sistemas. Plataformas de IA desenvolvidas de maneira displicente podem ser mais suscetíveis a aprender e a perpetuar coisas ruins. A ironia -e possivelmente o grande risco disso- é que, se elas aprenderem isso de gente preconceituosa, passarão adiante o erro para outras pessoas, por sua vez influenciadas por esses sistemas.

Em outras palavras, uma inteligência artificial cheia de vieses e preconceitos pode piorar -e muito- a sociedade.

Veja esse artigo em vídeo:

Isso obviamente não quer dizer que a inteligência artificial seja ruim ou perigosa. Mas a preocupação da comunidade científica e de desenvolvimento com os vieses na inteligência artificial é tão grande, que foi um dos assuntos que mais ouvi na semana passada, durante minha visita a Montréal (Canadá) para participar do World Summit AI Americas, um dos maiores eventos do setor no mundo. Além do congresso, também fiz trocas muito ricas sobre o assunto em visitas a várias empresas e instituições de pesquisa, organizadas pela Câmara de Comércio Brasil-Canadá e pela Empathy Company.

Na palestra de abertura do Summit, Cassie Kozyrkov, cientista-chefe de decisões do Google, questionou o que faz da inteligência artificial uma tecnologia potencialmente mais perigosa que outras. Segundo ela, "sempre que você fica maior, é mais fácil você pisar nas pessoas a sua volta". E a IA já está bem grande. "Não seja negligente na escala", alertou.

Kozyrkov explicou que, ao contrário de uma programação convencional, em que o desenvolvedor determina explicitamente tudo que a máquina deve fazer em incontáveis linhas de código, na inteligência artificial, a plataforma recebe regras amplas para oferecer boas soluções para um problema. Para conseguir isso, ela é alimentada com conjuntos de dados, que servirão para que tome suas decisões.

O problema é que, se esses dados forem ruins, as decisões também serão ruins. Por isso, a plataforma precisa ter outras regras para corrigir o rumo se algo der errado. Segundo a cientista, quando os exemplos apresentados à máquina forem inadequados, sem uma validação de sua qualidade, a plataforma desenvolverá vieses. "Você precisa testar rigorosamente e construir redes de proteção", sugere.

Podemos fazer uma analogia com a maneira como uma criança aprende. Se ela for constantemente exposta a exemplos ruins, ela aprenderá e reproduzirá isso quando crescer. Por exemplo, se uma criança cresce em uma família racista, existe grande chance de se tornar um adulto racista, pois esse preconceito terá sido normalizado em sua maneira de pensar.

Um dos exemplos mais emblemáticos do problema foi a ferramenta Tay, lançada pela Microsoft em março de 2016. Ela estava por trás de uma conta no Twitter, que simulava uma adolescente criada para conversar com os usuários. Mas a conta ficou no ar por apenas 24 horas! Tudo porque, nesse curto período, depois de conversar com milhares de pessoas (muitas delas mal-intencionadas), ela desenvolveu uma personalidade racista, xenófoba e sexista. Por exemplo, Tay começou a defender Adolf Hitler e seus ideais nazistas, atacar feministas, apoiar propostas do então candidato à presidência americana Donald Trump e se declarar viciada em sexo.

A Microsoft tirou o sistema do ar, mas o perfil no Twitter ainda existe, apesar de ser agora restrito a convidados, não ter mais atualizações e de os piores tuítes terem sido excluídos. Sua manutenção visa promover a reflexão de como sistemas de inteligência artificial podem influenciar pessoas, mas também ser influenciados por elas.

 

IA enviesada nos negócios

A inteligência artificial está presente em dezenas de sistemas que usamos todos os dias, melhorando suas capacidades. Sem ela, os benefícios que nossos smartphones nos oferecem seriam bem mais limitados. Da mesma, forma, ela está presente em plataformas empresariais. E os vieses também podem surgir nesse caso.

Uma das empresas que visitei em Montréal foi o escritório local da agência Thomson Reuters. No encontro, Carter Cousineau, vice-presidente de Data & Model Governance, e Glenda Crisp, líder de Data & Analytics, trouxeram problemas conhecidos da IA nos negócios, como os de sistemas de recrutamento. Ao analisar milhares de currículos para uma vaga, eles podem deixar de fora os melhores profissionais, por vieses que desenvolveram, por exemplo, sobre idade, gênero ou raça dos candidatos.

Para tentar minimizar casos como esse, o Conselho da Cidade de Nova York criou, no fim de 2021, uma lei que exige auditorias externas de algoritmos usados por empresas para contratação ou promoção de funcionários. Também passa a ser obrigatório informar o uso de inteligência artificial nos processos seletivos. Leis semelhantes em diversos países estão sendo criadas, abrangendo também áreas como educação, saúde e habitação.

A adoção da inteligência artificial é um caminho sem volta, que pode trazer grandes resultados para empresas e pessoas. Em outra palestra no Summit, Krish Banerjee, diretor de Data, Analytics & Applied Intelligence da consultoria Accenture, afirmou que 84% dos executivos sabem que precisam investir em IA para atingir seus objetivos e que 75% acreditam que, se não fizerem isso nos próximos cinco anos, podem ser colocados para fora do mercado.

É claro que sim! A inteligência artificial permite a qualquer um ter incrível ganho na velocidade e na qualidade das informações para seu cotidiano. Para indivíduos, isso pode representar uma vida melhor em diferentes aspectos. No caso de empresas, isso pode se refletir em produtos mais alinhados às necessidades do mercado, melhores métodos de produção e clientes mais satisfeitos.

A inteligência artificial precisa, portanto, dos seres humanos! Ela deixa claro a parceria que criamos com as máquinas. Se quisermos que ela nos ajude, precisamos ajudá-la a aprender com bons exemplos, ou seja, dados de qualidade. Nem mesmo a plataforma mais bem desenvolvida será capaz de dar resultados satisfatórios se pessoas não atuarem ativamente na curadoria das informações que a alimenta, eliminando os vieses.

"A inteligência artificial não é mágica, não pode ler sua mente", provocou Kozyrkov no Summit. Se fizemos a nossa parte nesse acordo, a tecnologia pode nos oferecer grandes ganhos. Mas, se não instruirmos bem essa criança, ela pode arruinar a sociedade.

 

Cassie Kozyrkov, cientista-chefe de decisões do Google, na palestra de abertura do World Summit AI Americas, no dia 4 de maio 

 

Graças a crescente simbiose com sistemas digitais, nossas decisões cotidianas são influenciadas por eles. O que pouca gente sabe é que, da mesma forma, nós influenciamos as máquinas. Na verdade, graças à inteligência artificial cada vez mais disseminada nesses sistemas, elas efetivamente aprendem conosco. Mas será que estamos sendo bons professores?

A pergunta pode parecer sem sentido, mas embasa um dos temas mais quentes hoje para quem trabalha com inteligência artificial: a ética desses sistemas. Plataformas de IA desenvolvidas de maneira displicente podem ser mais suscetíveis a aprender e a perpetuar coisas ruins. A ironia -e possivelmente o grande risco disso- é que, se elas aprenderem isso de gente preconceituosa, passarão adiante o erro para outras pessoas, por sua vez influenciadas por esses sistemas.

Em outras palavras, uma inteligência artificial cheia de vieses e preconceitos pode piorar -e muito- a sociedade.

Veja esse artigo em vídeo:

Isso obviamente não quer dizer que a inteligência artificial seja ruim ou perigosa. Mas a preocupação da comunidade científica e de desenvolvimento com os vieses na inteligência artificial é tão grande, que foi um dos assuntos que mais ouvi na semana passada, durante minha visita a Montréal (Canadá) para participar do World Summit AI Americas, um dos maiores eventos do setor no mundo. Além do congresso, também fiz trocas muito ricas sobre o assunto em visitas a várias empresas e instituições de pesquisa, organizadas pela Câmara de Comércio Brasil-Canadá e pela Empathy Company.

Na palestra de abertura do Summit, Cassie Kozyrkov, cientista-chefe de decisões do Google, questionou o que faz da inteligência artificial uma tecnologia potencialmente mais perigosa que outras. Segundo ela, "sempre que você fica maior, é mais fácil você pisar nas pessoas a sua volta". E a IA já está bem grande. "Não seja negligente na escala", alertou.

Kozyrkov explicou que, ao contrário de uma programação convencional, em que o desenvolvedor determina explicitamente tudo que a máquina deve fazer em incontáveis linhas de código, na inteligência artificial, a plataforma recebe regras amplas para oferecer boas soluções para um problema. Para conseguir isso, ela é alimentada com conjuntos de dados, que servirão para que tome suas decisões.

O problema é que, se esses dados forem ruins, as decisões também serão ruins. Por isso, a plataforma precisa ter outras regras para corrigir o rumo se algo der errado. Segundo a cientista, quando os exemplos apresentados à máquina forem inadequados, sem uma validação de sua qualidade, a plataforma desenvolverá vieses. "Você precisa testar rigorosamente e construir redes de proteção", sugere.

Podemos fazer uma analogia com a maneira como uma criança aprende. Se ela for constantemente exposta a exemplos ruins, ela aprenderá e reproduzirá isso quando crescer. Por exemplo, se uma criança cresce em uma família racista, existe grande chance de se tornar um adulto racista, pois esse preconceito terá sido normalizado em sua maneira de pensar.

Um dos exemplos mais emblemáticos do problema foi a ferramenta Tay, lançada pela Microsoft em março de 2016. Ela estava por trás de uma conta no Twitter, que simulava uma adolescente criada para conversar com os usuários. Mas a conta ficou no ar por apenas 24 horas! Tudo porque, nesse curto período, depois de conversar com milhares de pessoas (muitas delas mal-intencionadas), ela desenvolveu uma personalidade racista, xenófoba e sexista. Por exemplo, Tay começou a defender Adolf Hitler e seus ideais nazistas, atacar feministas, apoiar propostas do então candidato à presidência americana Donald Trump e se declarar viciada em sexo.

A Microsoft tirou o sistema do ar, mas o perfil no Twitter ainda existe, apesar de ser agora restrito a convidados, não ter mais atualizações e de os piores tuítes terem sido excluídos. Sua manutenção visa promover a reflexão de como sistemas de inteligência artificial podem influenciar pessoas, mas também ser influenciados por elas.

 

IA enviesada nos negócios

A inteligência artificial está presente em dezenas de sistemas que usamos todos os dias, melhorando suas capacidades. Sem ela, os benefícios que nossos smartphones nos oferecem seriam bem mais limitados. Da mesma, forma, ela está presente em plataformas empresariais. E os vieses também podem surgir nesse caso.

Uma das empresas que visitei em Montréal foi o escritório local da agência Thomson Reuters. No encontro, Carter Cousineau, vice-presidente de Data & Model Governance, e Glenda Crisp, líder de Data & Analytics, trouxeram problemas conhecidos da IA nos negócios, como os de sistemas de recrutamento. Ao analisar milhares de currículos para uma vaga, eles podem deixar de fora os melhores profissionais, por vieses que desenvolveram, por exemplo, sobre idade, gênero ou raça dos candidatos.

Para tentar minimizar casos como esse, o Conselho da Cidade de Nova York criou, no fim de 2021, uma lei que exige auditorias externas de algoritmos usados por empresas para contratação ou promoção de funcionários. Também passa a ser obrigatório informar o uso de inteligência artificial nos processos seletivos. Leis semelhantes em diversos países estão sendo criadas, abrangendo também áreas como educação, saúde e habitação.

A adoção da inteligência artificial é um caminho sem volta, que pode trazer grandes resultados para empresas e pessoas. Em outra palestra no Summit, Krish Banerjee, diretor de Data, Analytics & Applied Intelligence da consultoria Accenture, afirmou que 84% dos executivos sabem que precisam investir em IA para atingir seus objetivos e que 75% acreditam que, se não fizerem isso nos próximos cinco anos, podem ser colocados para fora do mercado.

É claro que sim! A inteligência artificial permite a qualquer um ter incrível ganho na velocidade e na qualidade das informações para seu cotidiano. Para indivíduos, isso pode representar uma vida melhor em diferentes aspectos. No caso de empresas, isso pode se refletir em produtos mais alinhados às necessidades do mercado, melhores métodos de produção e clientes mais satisfeitos.

A inteligência artificial precisa, portanto, dos seres humanos! Ela deixa claro a parceria que criamos com as máquinas. Se quisermos que ela nos ajude, precisamos ajudá-la a aprender com bons exemplos, ou seja, dados de qualidade. Nem mesmo a plataforma mais bem desenvolvida será capaz de dar resultados satisfatórios se pessoas não atuarem ativamente na curadoria das informações que a alimenta, eliminando os vieses.

"A inteligência artificial não é mágica, não pode ler sua mente", provocou Kozyrkov no Summit. Se fizemos a nossa parte nesse acordo, a tecnologia pode nos oferecer grandes ganhos. Mas, se não instruirmos bem essa criança, ela pode arruinar a sociedade.

 

Cassie Kozyrkov, cientista-chefe de decisões do Google, na palestra de abertura do World Summit AI Americas, no dia 4 de maio 

 

Graças a crescente simbiose com sistemas digitais, nossas decisões cotidianas são influenciadas por eles. O que pouca gente sabe é que, da mesma forma, nós influenciamos as máquinas. Na verdade, graças à inteligência artificial cada vez mais disseminada nesses sistemas, elas efetivamente aprendem conosco. Mas será que estamos sendo bons professores?

A pergunta pode parecer sem sentido, mas embasa um dos temas mais quentes hoje para quem trabalha com inteligência artificial: a ética desses sistemas. Plataformas de IA desenvolvidas de maneira displicente podem ser mais suscetíveis a aprender e a perpetuar coisas ruins. A ironia -e possivelmente o grande risco disso- é que, se elas aprenderem isso de gente preconceituosa, passarão adiante o erro para outras pessoas, por sua vez influenciadas por esses sistemas.

Em outras palavras, uma inteligência artificial cheia de vieses e preconceitos pode piorar -e muito- a sociedade.

Veja esse artigo em vídeo:

Isso obviamente não quer dizer que a inteligência artificial seja ruim ou perigosa. Mas a preocupação da comunidade científica e de desenvolvimento com os vieses na inteligência artificial é tão grande, que foi um dos assuntos que mais ouvi na semana passada, durante minha visita a Montréal (Canadá) para participar do World Summit AI Americas, um dos maiores eventos do setor no mundo. Além do congresso, também fiz trocas muito ricas sobre o assunto em visitas a várias empresas e instituições de pesquisa, organizadas pela Câmara de Comércio Brasil-Canadá e pela Empathy Company.

Na palestra de abertura do Summit, Cassie Kozyrkov, cientista-chefe de decisões do Google, questionou o que faz da inteligência artificial uma tecnologia potencialmente mais perigosa que outras. Segundo ela, "sempre que você fica maior, é mais fácil você pisar nas pessoas a sua volta". E a IA já está bem grande. "Não seja negligente na escala", alertou.

Kozyrkov explicou que, ao contrário de uma programação convencional, em que o desenvolvedor determina explicitamente tudo que a máquina deve fazer em incontáveis linhas de código, na inteligência artificial, a plataforma recebe regras amplas para oferecer boas soluções para um problema. Para conseguir isso, ela é alimentada com conjuntos de dados, que servirão para que tome suas decisões.

O problema é que, se esses dados forem ruins, as decisões também serão ruins. Por isso, a plataforma precisa ter outras regras para corrigir o rumo se algo der errado. Segundo a cientista, quando os exemplos apresentados à máquina forem inadequados, sem uma validação de sua qualidade, a plataforma desenvolverá vieses. "Você precisa testar rigorosamente e construir redes de proteção", sugere.

Podemos fazer uma analogia com a maneira como uma criança aprende. Se ela for constantemente exposta a exemplos ruins, ela aprenderá e reproduzirá isso quando crescer. Por exemplo, se uma criança cresce em uma família racista, existe grande chance de se tornar um adulto racista, pois esse preconceito terá sido normalizado em sua maneira de pensar.

Um dos exemplos mais emblemáticos do problema foi a ferramenta Tay, lançada pela Microsoft em março de 2016. Ela estava por trás de uma conta no Twitter, que simulava uma adolescente criada para conversar com os usuários. Mas a conta ficou no ar por apenas 24 horas! Tudo porque, nesse curto período, depois de conversar com milhares de pessoas (muitas delas mal-intencionadas), ela desenvolveu uma personalidade racista, xenófoba e sexista. Por exemplo, Tay começou a defender Adolf Hitler e seus ideais nazistas, atacar feministas, apoiar propostas do então candidato à presidência americana Donald Trump e se declarar viciada em sexo.

A Microsoft tirou o sistema do ar, mas o perfil no Twitter ainda existe, apesar de ser agora restrito a convidados, não ter mais atualizações e de os piores tuítes terem sido excluídos. Sua manutenção visa promover a reflexão de como sistemas de inteligência artificial podem influenciar pessoas, mas também ser influenciados por elas.

 

IA enviesada nos negócios

A inteligência artificial está presente em dezenas de sistemas que usamos todos os dias, melhorando suas capacidades. Sem ela, os benefícios que nossos smartphones nos oferecem seriam bem mais limitados. Da mesma, forma, ela está presente em plataformas empresariais. E os vieses também podem surgir nesse caso.

Uma das empresas que visitei em Montréal foi o escritório local da agência Thomson Reuters. No encontro, Carter Cousineau, vice-presidente de Data & Model Governance, e Glenda Crisp, líder de Data & Analytics, trouxeram problemas conhecidos da IA nos negócios, como os de sistemas de recrutamento. Ao analisar milhares de currículos para uma vaga, eles podem deixar de fora os melhores profissionais, por vieses que desenvolveram, por exemplo, sobre idade, gênero ou raça dos candidatos.

Para tentar minimizar casos como esse, o Conselho da Cidade de Nova York criou, no fim de 2021, uma lei que exige auditorias externas de algoritmos usados por empresas para contratação ou promoção de funcionários. Também passa a ser obrigatório informar o uso de inteligência artificial nos processos seletivos. Leis semelhantes em diversos países estão sendo criadas, abrangendo também áreas como educação, saúde e habitação.

A adoção da inteligência artificial é um caminho sem volta, que pode trazer grandes resultados para empresas e pessoas. Em outra palestra no Summit, Krish Banerjee, diretor de Data, Analytics & Applied Intelligence da consultoria Accenture, afirmou que 84% dos executivos sabem que precisam investir em IA para atingir seus objetivos e que 75% acreditam que, se não fizerem isso nos próximos cinco anos, podem ser colocados para fora do mercado.

É claro que sim! A inteligência artificial permite a qualquer um ter incrível ganho na velocidade e na qualidade das informações para seu cotidiano. Para indivíduos, isso pode representar uma vida melhor em diferentes aspectos. No caso de empresas, isso pode se refletir em produtos mais alinhados às necessidades do mercado, melhores métodos de produção e clientes mais satisfeitos.

A inteligência artificial precisa, portanto, dos seres humanos! Ela deixa claro a parceria que criamos com as máquinas. Se quisermos que ela nos ajude, precisamos ajudá-la a aprender com bons exemplos, ou seja, dados de qualidade. Nem mesmo a plataforma mais bem desenvolvida será capaz de dar resultados satisfatórios se pessoas não atuarem ativamente na curadoria das informações que a alimenta, eliminando os vieses.

"A inteligência artificial não é mágica, não pode ler sua mente", provocou Kozyrkov no Summit. Se fizemos a nossa parte nesse acordo, a tecnologia pode nos oferecer grandes ganhos. Mas, se não instruirmos bem essa criança, ela pode arruinar a sociedade.

 

Opinião por Paulo Silvestre

É jornalista, consultor e palestrante de customer experience, mídia, cultura e transformação digital. É professor da Universidade Mackenzie e da PUC–SP, e articulista do Estadão. Foi executivo na AOL, Editora Abril, Estadão, Saraiva e Samsung. Mestre em Tecnologias da Inteligência e Design Digital pela PUC-SP, é LinkedIn Top Voice desde 2016.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.