Michal Kosinski, controverso professor da Universidade Stanford, está de volta. O polonês de 38 anos descreveu em 2013 o uso de curtidas e testes no Facebook para decifrar a personalidade de uma pessoa -a estratégia foi usada posteriormente pela consultoria política Cambridge Analytica (CA) para influenciar a opinião pública em episódios como as eleições americanas de 2016. Após virar ‘profeta’ de um dos maiores escândalos da história da rede social, Kosinski passou a dedicar seus estudos a potenciais perigos à privacidade causados por tecnologias dereconhecimento facial. Nesta segunda, 11, a prestigiada revista científica Nature publica o novo artigo do pesquisador, no qual afirma ser possível usar algoritmos de reconhecimento facial para detectar a orientação política das pessoas - ele havia antecipado ao Estadão em 2019 seu novo foco de pesquisas.
No experimento, Kosinski utilizou um algoritmo de reconhecimento facial de código aberto, o VGG2Face2, e o colocou para analisar mais de 1 milhão de fotos de perfis no Facebook e em sites de namoros em três países: EUA, Canadá e Inglaterra. Ao final, a inteligência artificial (IA) teria identificado corretamente a orientação política dessas pessoas em 72% dos casos - seguindo a classificação amplamente utilizada nos EUA, as pessoas estavam divididas em ‘conservadoras’ e ‘liberais’ (o que no Brasil poderia ser substituído por ‘direita’ e ‘esquerda’). Os resultados foram similares quando segmentados por país ou por ambiente digital. Ainda segundo o texto, os resultados teriam sido superiores aos de humanos (55%) e de testes escritos de personalidade (66%).
Não é difícil imaginar que a pesquisa tenha recorrido a estereótipos físicos da esquerda e da direita para chegar às suas conclusões. Não é isso, porém, o que indicam os resultados. Quando considerados apenas elementos faciais objetivos, como barba, óculos de grau, óculos escuros e posicionamento da cabeça, o algoritmo teve taxa de acerto bem menor (58%). Ao isolar cada um desses elementos, os números caem ainda mais. Possíveis expressões faciais, como medo, surpresa ou felicidade, ofereceram 57% de acerto quando consideradas em conjunto - isoladamente, cada uma das expressões rendeu índice de acerto inferior. A combinação de elementos objetivos e expressões faciais manteve a taxa também em 59%.
“Provavelmente, o algoritmo está detectando padrões e fazendo combinações que passam despercebidas aos olhos humanos”, explica ele ao Estadão. No estudo, ele diz que a IA determinou 2.048 atributos de descrição da face, embora não seja possível saber o que a máquina captou - é algo que reforça a crítica de que a inteligência artificial é uma tecnologia que sofre de falta de transparência. “Isso não significa que conservadores e liberais têm intrinsecamente rostos diferentes. É possível que a diferença exista pela forma como as pessoas escolhem se apresentar”.
Questionamentos
Os resultados e a própria existência da pesquisa devem replicar críticas já feitas anteriormente aos trabalhos de Kosinski. Em 2017, ele publicou na revista The Economist uma pesquisa que afirmava ser possível usar o reconhecimento facial para detectar a orientação sexual das pessoas. Na época, grupos LGBTQ+ dos EUA consideraram o estudo falho e perigoso, enquanto pesquisadores questionaram seu método, linguagem e propósito. O próprio envolvimento do pesquisador no caso CA ainda causa dúvidas.
“Eu espero que as pessoas tenham a cabeça mais fria desta vez. A maioria das críticas acontecem por não entenderem o que estou fazendo. Eu estou apontando os problemas da tecnologia e os riscos que ela traz para privacidade e direitos civis”, diz ele. Novamente, o pesquisador repete que o seu trabalho serve para mostrar como tecnologias amplamente usadas podem afetar a privacidade das pessoas. Nas palavras dele, tecnologias de reconhecimento facial já estão sendo usadas sem regulamentação e debate e, portanto, seu estudo não cria nenhum novo perigo - ao contrário, ele provaria os riscos desses algoritmos.
Por acreditar que conseguiu chamar atenção para o tema, ele diz não precisa melhorar o índice de acerto - especialistas em IA ouvidos pelo Estadão dizem que a taxa conseguida por ele não é extraordinária.
Mas essa estaria longe de ser o único problema com o trabalho: a argumentação para a existência do trabalho e os métodos adotados são problemáticos, dizem eles. “Você não precisa explodir uma bomba nuclear para saber que ela é perigosa”, afirma Sérgio Amadeu, professor da Universidade Federal do ABC (UFABC) e especialista em políticas públicas e inclusão digital. “Me preocupo muito com o tipo de incentivo e sinalização que esse tipo de pesquisa nos traz”, diz ele. “Existem outras formas de combater o uso indevido dessa tecnologia e para propor soluções”. Segundo ele, não é difícil imaginar o uso do reconhecimento facial por governos ditatoriais para fins similares, como mapear supostos adversários políticos - ainda que os resultados e as premissas do experimento também sejam questionáveis.
“Isso recicla velhas práticas. É uma atualização do positivismo de Cesare Lombroso”, diz ele, em referência ao psiquiatra e criminologista italiano que viveu no século 19 e que dizia ser possível identificar criminosos a partir de suas características físicas. “Agora, porém, vivemos na era da ‘dataficação’, na qual os dados e a computação são usados para justificar velhos preconceitos”.
“Soa absurdo dizer que é possível extrair uma construção social, como orientação política, a partir de características genéticas e fenotípicas (como cicatrizes)”, diz Roberto Hirata Junior, professor do Departamento de Ciência da Computação do Instituto de Matemática e Estatística da USP e especialista em reconhecimento facial.
Alguns dos métodos também são questionados. “Fazer antropometria exige que os elementos sejam padronizados”, diz ele. Em outras palavras, fazer medições do corpo humano para extrair informações exige que todas as fotos analisadas sejam extremamente parecidas, o que minimiza a chance de erros e vieses. Esse não é o caso com imagens em redes sociais, nas quais cada usuário tem fotos de perfis com elementos diferentes, como distância, luz, pose e filtros. Fotos de passaporte que sempre têm regras de distância, luz e até elementos faciais, como óculos e posicionamento do cabelo, seriam uma fonte melhor de análise.
Ainda segundo Hirata, é possível que exista viés nos bancos de dados e na maneira como foram feitas as classificações para indicar orientação política. Ele também aponta falta de transparência sobre quantas tentativas foram necessárias para que a máquina atingisse o índice de 72% de acerto.
“Se você jogar uma moeda para o alto dez vezes, dificilmente conseguirá dez caras ou dez coroas. Se você tem mil pessoas fazendo isso, é muito alta a chance de ter uma única pessoa que consiga dez caras ou dez coroas. Com aprendizado de máquina é a mesma coisa”, explica. É preciso saber quantos classificadores foram feitos para chegar a esse índice.
Novamente envolto em questões sobre propósito e método, é possível que Kosinski tenha de ir além da ideia de ser um profeta do apocalipse tecnológico. Talvez, ele precise virar um combatente. “Fazer um estudo desses para pedir um veto ético à tecnologia não é suficiente. Temos uma tarefa científica de quebrar correlações que passam a ser consideradas verdades,” afirma Amadeu.