Gupy: Como funciona a IA de processos seletivos da startup


Companhia tenta remover viés do algoritmo de análise de currículos, evitando seleções a partir de gênero, raça e região

Por Guilherme Guerra

Analisar milhares de currículos pode ser uma tarefa bastante complexa para recrutadores, que precisam filtrar os melhores candidatos para vagas de trabalho. Para lidar com os altos volumes de informação, a startup Gupy desenvolveu a Gaia, sistema de inteligência artificial (IA) que pretende facilitar processos seletivos nas empresas — entre os clientes, há nomes como Ambev, Grupo Pão de Açúcar e Santander.

Não é uma função simples: o trabalho da Gaia consiste não só em analisar os currículos, mas ordená-los conforme a afinidade dos candidatos com a vaga. Dessa forma, a IA elabora um ranqueamento dos indivíduos e coloca no topo aqueles que têm maior compatibilidade com o que buscam as empresas. A startup garante que, na seleção, todos os documentos são lidos, algo que não aconteceria se a triagem fosse feita por recrutadores humanos.

continua após a publicidade

“A IA precisa ajudar em atividades em que o ser humano não é bom, como tarefas de automação”, explica Bianca Ximenes, diretora de inteligência artificial na Gupy — desde 2019, ela chefia uma equipe de 16 pessoas, responsáveis por treinar a Gaia para realizar tarefas cada vez mais complexas. “A ideia é que a IA seja um alívio dessa carga que exige muito da nossa atenção”, completa.

Entre outras tarefas, a Gaia também lê e interpreta currículos de forma automática, o que permite preencher campos na plataforma da empresa. Além disso, a IA faz validação e autenticação de documentos enviados pelos candidatos, “traduzindo” a fotografia para texto legível no computador.

continua após a publicidade

A arquitetura de ordenação da Gaia nasceu em 2019, quando a ferramenta elaborava uma “pontuação” de cada pessoa candidata a partir de afinidades pré-definidas. Hoje, graças ao banco de 6 bilhões de frases e palavras utilizado para treinar a IA, o processo é todo semântico, diz Bianca. Na prática, isso significa que a triagem se torna mais subjetiva e capta mais nuances das descrições — motivo pelo qual a Gupy incentiva que candidatos e empresas não poupem palavras ao utilizarem a plataforma.

A dica da companhia para “hackear” seu sistema é bem-vinda. Recentemente, porém, a companhia virou alvo de críticas nas redes sociais por seus processos serem supostamente muito automatizados e pouco eficientes no encaixe de vagas, com muitos testes a serem realizados pelos candidatos.

Bianca Ximenes é a chefe de inteligência artificial da Gupy, startup de recrutamento Foto: Carlos Ezequiel Vannoni/Estadão
continua após a publicidade

A ética da inteligência artificial

O crescimento de plataformas automatizadas para vagas de emprego vem levantando não apenas questões de eficiência, mas também de ética e viés. Embora tenha como função automatizar tarefas repetitivas, a IA pode repetir padrões comportamentais prejudiciais da sociedade — na prática, o aprendizado de máquina reproduz o que foi ensinado pelos humanos.

Erros no treinamento da tecnologia podem resultar em ranqueamentos nos quais estereótipos de gênero, raça ou região são reproduzidos - e tudo isso pode ocorrer sem a ciência dos recrutadores. Por exemplo, se a IA entende que homens tendem a ser mais escolhidos para vagas de engenharia, a máquina pode subir esses candidatos no levantamento, ainda que não sejam a melhor opção.

continua após a publicidade

Impedir isso é uma das principais tarefas da equipe comandada por Bianca Ximenes. Segundo a diretora, a Gaia foi treinada justamente para evitar reproduzir essas tendências. Exemplo disso é que a IA da Gupy não entende terminações de gênero nas palavras, compreendendo apenas o radical — ou seja, “engenheir”, “advogad” e “médic”.

Segundo Bianca, esse trabalho só é possível porque a Gaia é uma ferramenta desenvolvida “em casa” - ou seja, não empresta algoritmos e bancos de dados produzidos por outras empresas. “Ao eliminar modelos de linguagem de terceiros da nossa plataforma, conseguimos poupar alguns milhares de reais por ano. Mas também conseguimos auditar eticamente nossos próprios modelos internos”, afirma ela.

Da esq. para dir., Mariana Dias, Robson Ventura, Guilherme Dias e Bruna Guimarães, fundadores da Gupy Foto: Gupy
continua após a publicidade

O caminho é importante. Recentemente, pesquisadores da Universidade de Cambridge concluíram que ferramentas de recrutamento que utilizam IA não conseguem excluir vieses do processo seletivo.

“Essas ferramentas não podem ser treinadas para identificar características relativas somente a trabalho, tirando gênero e raça do processo. Esses atributos considerados essenciais para ser um bom empregado estão inerentemente conectados a gênero e raça”, disse em entrevista à BBC a pesquisadora Kerry Mackereth, responsável pelo estudo.

Em 2018, por exemplo, pela mesma razão, a Amazon abandonou uma ferramenta de IA utilizada para contratar funcionários por acreditar que a máquina poderia discriminar contra candidatas mulheres.

continua após a publicidade

Para Robson Ventura, diretor de tecnologia da Gupy e cofundador da startup ao lado de Mariana Dias, Bruna Guimarães e Guilherme Dias, ainda que a startup crie uma ferramenta assertiva e que fuja de vieses, o processo deve sempre ser concluído por recrutadores humanos.

“No final, não é a inteligência artificial que toma a decisão da contratação, mas sim os humanos”, diz Ventura.

Não é a inteligência artificial que toma a decisão da contratação, mas sim os humanos

Robson Ventura, diretor de tecnologia da Gupy

Analisar milhares de currículos pode ser uma tarefa bastante complexa para recrutadores, que precisam filtrar os melhores candidatos para vagas de trabalho. Para lidar com os altos volumes de informação, a startup Gupy desenvolveu a Gaia, sistema de inteligência artificial (IA) que pretende facilitar processos seletivos nas empresas — entre os clientes, há nomes como Ambev, Grupo Pão de Açúcar e Santander.

Não é uma função simples: o trabalho da Gaia consiste não só em analisar os currículos, mas ordená-los conforme a afinidade dos candidatos com a vaga. Dessa forma, a IA elabora um ranqueamento dos indivíduos e coloca no topo aqueles que têm maior compatibilidade com o que buscam as empresas. A startup garante que, na seleção, todos os documentos são lidos, algo que não aconteceria se a triagem fosse feita por recrutadores humanos.

“A IA precisa ajudar em atividades em que o ser humano não é bom, como tarefas de automação”, explica Bianca Ximenes, diretora de inteligência artificial na Gupy — desde 2019, ela chefia uma equipe de 16 pessoas, responsáveis por treinar a Gaia para realizar tarefas cada vez mais complexas. “A ideia é que a IA seja um alívio dessa carga que exige muito da nossa atenção”, completa.

Entre outras tarefas, a Gaia também lê e interpreta currículos de forma automática, o que permite preencher campos na plataforma da empresa. Além disso, a IA faz validação e autenticação de documentos enviados pelos candidatos, “traduzindo” a fotografia para texto legível no computador.

A arquitetura de ordenação da Gaia nasceu em 2019, quando a ferramenta elaborava uma “pontuação” de cada pessoa candidata a partir de afinidades pré-definidas. Hoje, graças ao banco de 6 bilhões de frases e palavras utilizado para treinar a IA, o processo é todo semântico, diz Bianca. Na prática, isso significa que a triagem se torna mais subjetiva e capta mais nuances das descrições — motivo pelo qual a Gupy incentiva que candidatos e empresas não poupem palavras ao utilizarem a plataforma.

A dica da companhia para “hackear” seu sistema é bem-vinda. Recentemente, porém, a companhia virou alvo de críticas nas redes sociais por seus processos serem supostamente muito automatizados e pouco eficientes no encaixe de vagas, com muitos testes a serem realizados pelos candidatos.

Bianca Ximenes é a chefe de inteligência artificial da Gupy, startup de recrutamento Foto: Carlos Ezequiel Vannoni/Estadão

A ética da inteligência artificial

O crescimento de plataformas automatizadas para vagas de emprego vem levantando não apenas questões de eficiência, mas também de ética e viés. Embora tenha como função automatizar tarefas repetitivas, a IA pode repetir padrões comportamentais prejudiciais da sociedade — na prática, o aprendizado de máquina reproduz o que foi ensinado pelos humanos.

Erros no treinamento da tecnologia podem resultar em ranqueamentos nos quais estereótipos de gênero, raça ou região são reproduzidos - e tudo isso pode ocorrer sem a ciência dos recrutadores. Por exemplo, se a IA entende que homens tendem a ser mais escolhidos para vagas de engenharia, a máquina pode subir esses candidatos no levantamento, ainda que não sejam a melhor opção.

Impedir isso é uma das principais tarefas da equipe comandada por Bianca Ximenes. Segundo a diretora, a Gaia foi treinada justamente para evitar reproduzir essas tendências. Exemplo disso é que a IA da Gupy não entende terminações de gênero nas palavras, compreendendo apenas o radical — ou seja, “engenheir”, “advogad” e “médic”.

Segundo Bianca, esse trabalho só é possível porque a Gaia é uma ferramenta desenvolvida “em casa” - ou seja, não empresta algoritmos e bancos de dados produzidos por outras empresas. “Ao eliminar modelos de linguagem de terceiros da nossa plataforma, conseguimos poupar alguns milhares de reais por ano. Mas também conseguimos auditar eticamente nossos próprios modelos internos”, afirma ela.

Da esq. para dir., Mariana Dias, Robson Ventura, Guilherme Dias e Bruna Guimarães, fundadores da Gupy Foto: Gupy

O caminho é importante. Recentemente, pesquisadores da Universidade de Cambridge concluíram que ferramentas de recrutamento que utilizam IA não conseguem excluir vieses do processo seletivo.

“Essas ferramentas não podem ser treinadas para identificar características relativas somente a trabalho, tirando gênero e raça do processo. Esses atributos considerados essenciais para ser um bom empregado estão inerentemente conectados a gênero e raça”, disse em entrevista à BBC a pesquisadora Kerry Mackereth, responsável pelo estudo.

Em 2018, por exemplo, pela mesma razão, a Amazon abandonou uma ferramenta de IA utilizada para contratar funcionários por acreditar que a máquina poderia discriminar contra candidatas mulheres.

Para Robson Ventura, diretor de tecnologia da Gupy e cofundador da startup ao lado de Mariana Dias, Bruna Guimarães e Guilherme Dias, ainda que a startup crie uma ferramenta assertiva e que fuja de vieses, o processo deve sempre ser concluído por recrutadores humanos.

“No final, não é a inteligência artificial que toma a decisão da contratação, mas sim os humanos”, diz Ventura.

Não é a inteligência artificial que toma a decisão da contratação, mas sim os humanos

Robson Ventura, diretor de tecnologia da Gupy

Analisar milhares de currículos pode ser uma tarefa bastante complexa para recrutadores, que precisam filtrar os melhores candidatos para vagas de trabalho. Para lidar com os altos volumes de informação, a startup Gupy desenvolveu a Gaia, sistema de inteligência artificial (IA) que pretende facilitar processos seletivos nas empresas — entre os clientes, há nomes como Ambev, Grupo Pão de Açúcar e Santander.

Não é uma função simples: o trabalho da Gaia consiste não só em analisar os currículos, mas ordená-los conforme a afinidade dos candidatos com a vaga. Dessa forma, a IA elabora um ranqueamento dos indivíduos e coloca no topo aqueles que têm maior compatibilidade com o que buscam as empresas. A startup garante que, na seleção, todos os documentos são lidos, algo que não aconteceria se a triagem fosse feita por recrutadores humanos.

“A IA precisa ajudar em atividades em que o ser humano não é bom, como tarefas de automação”, explica Bianca Ximenes, diretora de inteligência artificial na Gupy — desde 2019, ela chefia uma equipe de 16 pessoas, responsáveis por treinar a Gaia para realizar tarefas cada vez mais complexas. “A ideia é que a IA seja um alívio dessa carga que exige muito da nossa atenção”, completa.

Entre outras tarefas, a Gaia também lê e interpreta currículos de forma automática, o que permite preencher campos na plataforma da empresa. Além disso, a IA faz validação e autenticação de documentos enviados pelos candidatos, “traduzindo” a fotografia para texto legível no computador.

A arquitetura de ordenação da Gaia nasceu em 2019, quando a ferramenta elaborava uma “pontuação” de cada pessoa candidata a partir de afinidades pré-definidas. Hoje, graças ao banco de 6 bilhões de frases e palavras utilizado para treinar a IA, o processo é todo semântico, diz Bianca. Na prática, isso significa que a triagem se torna mais subjetiva e capta mais nuances das descrições — motivo pelo qual a Gupy incentiva que candidatos e empresas não poupem palavras ao utilizarem a plataforma.

A dica da companhia para “hackear” seu sistema é bem-vinda. Recentemente, porém, a companhia virou alvo de críticas nas redes sociais por seus processos serem supostamente muito automatizados e pouco eficientes no encaixe de vagas, com muitos testes a serem realizados pelos candidatos.

Bianca Ximenes é a chefe de inteligência artificial da Gupy, startup de recrutamento Foto: Carlos Ezequiel Vannoni/Estadão

A ética da inteligência artificial

O crescimento de plataformas automatizadas para vagas de emprego vem levantando não apenas questões de eficiência, mas também de ética e viés. Embora tenha como função automatizar tarefas repetitivas, a IA pode repetir padrões comportamentais prejudiciais da sociedade — na prática, o aprendizado de máquina reproduz o que foi ensinado pelos humanos.

Erros no treinamento da tecnologia podem resultar em ranqueamentos nos quais estereótipos de gênero, raça ou região são reproduzidos - e tudo isso pode ocorrer sem a ciência dos recrutadores. Por exemplo, se a IA entende que homens tendem a ser mais escolhidos para vagas de engenharia, a máquina pode subir esses candidatos no levantamento, ainda que não sejam a melhor opção.

Impedir isso é uma das principais tarefas da equipe comandada por Bianca Ximenes. Segundo a diretora, a Gaia foi treinada justamente para evitar reproduzir essas tendências. Exemplo disso é que a IA da Gupy não entende terminações de gênero nas palavras, compreendendo apenas o radical — ou seja, “engenheir”, “advogad” e “médic”.

Segundo Bianca, esse trabalho só é possível porque a Gaia é uma ferramenta desenvolvida “em casa” - ou seja, não empresta algoritmos e bancos de dados produzidos por outras empresas. “Ao eliminar modelos de linguagem de terceiros da nossa plataforma, conseguimos poupar alguns milhares de reais por ano. Mas também conseguimos auditar eticamente nossos próprios modelos internos”, afirma ela.

Da esq. para dir., Mariana Dias, Robson Ventura, Guilherme Dias e Bruna Guimarães, fundadores da Gupy Foto: Gupy

O caminho é importante. Recentemente, pesquisadores da Universidade de Cambridge concluíram que ferramentas de recrutamento que utilizam IA não conseguem excluir vieses do processo seletivo.

“Essas ferramentas não podem ser treinadas para identificar características relativas somente a trabalho, tirando gênero e raça do processo. Esses atributos considerados essenciais para ser um bom empregado estão inerentemente conectados a gênero e raça”, disse em entrevista à BBC a pesquisadora Kerry Mackereth, responsável pelo estudo.

Em 2018, por exemplo, pela mesma razão, a Amazon abandonou uma ferramenta de IA utilizada para contratar funcionários por acreditar que a máquina poderia discriminar contra candidatas mulheres.

Para Robson Ventura, diretor de tecnologia da Gupy e cofundador da startup ao lado de Mariana Dias, Bruna Guimarães e Guilherme Dias, ainda que a startup crie uma ferramenta assertiva e que fuja de vieses, o processo deve sempre ser concluído por recrutadores humanos.

“No final, não é a inteligência artificial que toma a decisão da contratação, mas sim os humanos”, diz Ventura.

Não é a inteligência artificial que toma a decisão da contratação, mas sim os humanos

Robson Ventura, diretor de tecnologia da Gupy

Analisar milhares de currículos pode ser uma tarefa bastante complexa para recrutadores, que precisam filtrar os melhores candidatos para vagas de trabalho. Para lidar com os altos volumes de informação, a startup Gupy desenvolveu a Gaia, sistema de inteligência artificial (IA) que pretende facilitar processos seletivos nas empresas — entre os clientes, há nomes como Ambev, Grupo Pão de Açúcar e Santander.

Não é uma função simples: o trabalho da Gaia consiste não só em analisar os currículos, mas ordená-los conforme a afinidade dos candidatos com a vaga. Dessa forma, a IA elabora um ranqueamento dos indivíduos e coloca no topo aqueles que têm maior compatibilidade com o que buscam as empresas. A startup garante que, na seleção, todos os documentos são lidos, algo que não aconteceria se a triagem fosse feita por recrutadores humanos.

“A IA precisa ajudar em atividades em que o ser humano não é bom, como tarefas de automação”, explica Bianca Ximenes, diretora de inteligência artificial na Gupy — desde 2019, ela chefia uma equipe de 16 pessoas, responsáveis por treinar a Gaia para realizar tarefas cada vez mais complexas. “A ideia é que a IA seja um alívio dessa carga que exige muito da nossa atenção”, completa.

Entre outras tarefas, a Gaia também lê e interpreta currículos de forma automática, o que permite preencher campos na plataforma da empresa. Além disso, a IA faz validação e autenticação de documentos enviados pelos candidatos, “traduzindo” a fotografia para texto legível no computador.

A arquitetura de ordenação da Gaia nasceu em 2019, quando a ferramenta elaborava uma “pontuação” de cada pessoa candidata a partir de afinidades pré-definidas. Hoje, graças ao banco de 6 bilhões de frases e palavras utilizado para treinar a IA, o processo é todo semântico, diz Bianca. Na prática, isso significa que a triagem se torna mais subjetiva e capta mais nuances das descrições — motivo pelo qual a Gupy incentiva que candidatos e empresas não poupem palavras ao utilizarem a plataforma.

A dica da companhia para “hackear” seu sistema é bem-vinda. Recentemente, porém, a companhia virou alvo de críticas nas redes sociais por seus processos serem supostamente muito automatizados e pouco eficientes no encaixe de vagas, com muitos testes a serem realizados pelos candidatos.

Bianca Ximenes é a chefe de inteligência artificial da Gupy, startup de recrutamento Foto: Carlos Ezequiel Vannoni/Estadão

A ética da inteligência artificial

O crescimento de plataformas automatizadas para vagas de emprego vem levantando não apenas questões de eficiência, mas também de ética e viés. Embora tenha como função automatizar tarefas repetitivas, a IA pode repetir padrões comportamentais prejudiciais da sociedade — na prática, o aprendizado de máquina reproduz o que foi ensinado pelos humanos.

Erros no treinamento da tecnologia podem resultar em ranqueamentos nos quais estereótipos de gênero, raça ou região são reproduzidos - e tudo isso pode ocorrer sem a ciência dos recrutadores. Por exemplo, se a IA entende que homens tendem a ser mais escolhidos para vagas de engenharia, a máquina pode subir esses candidatos no levantamento, ainda que não sejam a melhor opção.

Impedir isso é uma das principais tarefas da equipe comandada por Bianca Ximenes. Segundo a diretora, a Gaia foi treinada justamente para evitar reproduzir essas tendências. Exemplo disso é que a IA da Gupy não entende terminações de gênero nas palavras, compreendendo apenas o radical — ou seja, “engenheir”, “advogad” e “médic”.

Segundo Bianca, esse trabalho só é possível porque a Gaia é uma ferramenta desenvolvida “em casa” - ou seja, não empresta algoritmos e bancos de dados produzidos por outras empresas. “Ao eliminar modelos de linguagem de terceiros da nossa plataforma, conseguimos poupar alguns milhares de reais por ano. Mas também conseguimos auditar eticamente nossos próprios modelos internos”, afirma ela.

Da esq. para dir., Mariana Dias, Robson Ventura, Guilherme Dias e Bruna Guimarães, fundadores da Gupy Foto: Gupy

O caminho é importante. Recentemente, pesquisadores da Universidade de Cambridge concluíram que ferramentas de recrutamento que utilizam IA não conseguem excluir vieses do processo seletivo.

“Essas ferramentas não podem ser treinadas para identificar características relativas somente a trabalho, tirando gênero e raça do processo. Esses atributos considerados essenciais para ser um bom empregado estão inerentemente conectados a gênero e raça”, disse em entrevista à BBC a pesquisadora Kerry Mackereth, responsável pelo estudo.

Em 2018, por exemplo, pela mesma razão, a Amazon abandonou uma ferramenta de IA utilizada para contratar funcionários por acreditar que a máquina poderia discriminar contra candidatas mulheres.

Para Robson Ventura, diretor de tecnologia da Gupy e cofundador da startup ao lado de Mariana Dias, Bruna Guimarães e Guilherme Dias, ainda que a startup crie uma ferramenta assertiva e que fuja de vieses, o processo deve sempre ser concluído por recrutadores humanos.

“No final, não é a inteligência artificial que toma a decisão da contratação, mas sim os humanos”, diz Ventura.

Não é a inteligência artificial que toma a decisão da contratação, mas sim os humanos

Robson Ventura, diretor de tecnologia da Gupy

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.