Na semana, a revista científica Nature publicou um estudo que afirma ser possível usar algoritmos de reconhecimento facial para detectar a orientação política das pessoas. Claro, ele fez barulho – e não apenas por apontar problemas com a tecnologia. Há críticas sobre o propósito e os métodos da pesquisa. Nada, porém, que seja inédito para o autor.
O estudo foi feito por Michal Kosinski, 38, professor da Universidade Stanford. O polonês descreveu em 2013 o uso de curtidas e testes no Facebook para decifrar a personalidade de uma pessoa – a estratégia foi usada posteriormente pela consultoria política Cambridge Analytica (CA) para influenciar a opinião pública em episódios como as eleições americanas de 2016. Ele sempre negou participar do projeto, mas seu nome ficou ligado ao escândalo.
Após virar ‘profeta’ de um dos maiores escândalos da história da rede social, Kosinski passou a dedicar seus estudos a potenciais perigos à privacidade causados por tecnologias de reconhecimento facial. Em 2017, ele causou controvérsia ao publicar uma pesquisa que afirmava ser possível usar o reconhecimento facial para detectar a orientação sexual das pessoas.
Na época, grupos LGBTQ+ dos EUA consideraram o estudo falho e perigoso. De sua casa, na Califórnia, ele falou com exclusividade ao Estadão sobre o novo artigo, os riscos da inteligência artificial (IA) e as eleições americanas.
O sr. foi bastante criticado quando publicou o estudo anterior, que dizia ser possível detectar orientação sexual por algoritmos de reconhecimento facial. Espera o mesmo agora?
Espero que as pessoas tenham mais sangue frio desta vez. Eu ouço com muito cuidado a todas as críticas, pois é assim que se melhora. Porém, a maioria das críticas que recebo são apenas compreensões errôneas sobre o que estou fazendo. As pessoas me criticam por criar riscos à privacidade sem perceber que não estou criando novos algoritmos. Pesquiso algoritmos amplamente utilizados. Estou dizendo que há riscos neles. Não estou aqui para espalhar medo. Existe ótimo potencial para os usos desses algoritmos, mas eles têm um custo. E temos que fazer esse custo ser visível. Houve também muitas críticas sobre eu ter criado novas teorias sobre a origem da orientação sexual, o que não é verdade. O fato de que a orientação sexual ser detectada pela face não é inconsistente com teorias já existentes. Depois de três anos de mensagens de ódios e de análises nos mínimos detalhes do meu artigo, ninguém encontrou problemas nele. Ao contrário, ele foi replicado com sucesso.
No artigo anterior, sua mensagem era de que a tecnologia tem riscos para a privacidade e para os direitos civis. É o que o sr. está tentando dizer novamente?
O reconhecimento facial não reconhece apenas os nossos rostos em fotos em que aparecemos. Ele nos liga aos grupos que pertencemos, o que revela características muito íntimas. Um oficial de imigração poderia não apenas relacionar a sua foto com os seus registros, mas também poderia descobrir características que tradicionalmente mantivemos privadas. O que estou tentando dizer é: o sistema legal, o sistema social e a cultura evoluíram para lidar com situações como essa? Estamos prontos para um contexto no qual nossas visões políticas estejam estampadas em nossas caras? Isso tem que começar uma discussão importante: como garantir que o mundo pós-privacidade seja habitável?
O sr. considera que houve avanços para colocar limites no reconhecimento facial?
Houve avanços e retrocessos. As pessoas começaram a se interessar – ao menos, isso se tornou algo comum entre os legisladores. Eles perceberam que reconhecimento facial vai além de apenas combinar um rosto com diferentes imagens. Por outro lado, os computadores estão melhorando a cada mês, isso significa que esses algoritmos estão melhorando – e o acesso a eles é cada vez mais fácil. O que estava disponível apenas para governos, agora pode ser acessado por todo o mundo.
O sr. diz no artigo que não é possível saber quais características a máquina identificou para determinar a orientação política de cada uma das pessoas. Qual é a importância de ter transparência na utilização de IA?
Saber o que a máquina está processando não seria apenas importante, mas ideal. Saber como a IA resolve vários problemas é importante, pois ela já nos superou em várias áreas. Infelizmente, tenho certeza de que nunca entenderemos completamente o seu funcionamento, pois ela processa os sinais, detecta padrões e realiza cálculos que somos incapazes de fazer. O fato, porém, de não entendermos algo não significa que isso não possa estar certo. O fato de pombos não entenderem humanos não significa que os humanos não tenham sucesso no que estão fazendo. Infelizmente, comparado à IA, nós somos os pombos
Existem projetos para tornar a IA mais transparente. O sr. não acredita neles?
Eles são maravilhosos. Eu mesmo estou tentando decifrar como a IA trabalha, mas entendo que não a compreenderei inteiramente. Infelizmente, quanto mais usamos a IA, mais longe ela fica da nossa capacidade de compreensão.
Como você garante que as fotos usadas no seu novo estudo realmente pertencem aos donos dos perfis de onde foram retirados e estão conectadas à informações corretas?
Com toda a certeza, alguns dos rostos eram falsos, mas a porcentagem é baixa. A maioria das pessoas nas redes sociais mostra os seus rostos, porque essas mídias foram criadas para a interação entre pessoas. O mesmo vale para sites de namoro.Pode até ter uma foto de uma versão mais jovem da pessoa, mas é estranho colocar a foto de outra pessoa - especialmente se a pessoa consegue um encontro. Além disso, se uma porcentagem dessas fotos é falsa, então nossas estimativas são conservadoras porque fotos falsas confundem o algoritmo, atrapalhando uma boa predição. Se tivéssemos dados perfeitos, o índice seria mais alto.
O sr. estudou modelos nos EUA, Reino Unido e Canadá. Ele pode ser aplicado a qualquer população? Os resultados poderiam variar?
Sim, podem ser replicados, especialmente em países parecidos. Nesses lugares a sociedade e o sistema político são parecidos. Os modelos não têm fronteiras. Ele pode falhar quando a cultura ou o sistema político são muito diferentes. Mas, se podemos treiná-lo nos EUA, podemos treiná-lo em qualquer lugar. De fato, há startups oferecendo exatamente esse serviço.
O reconhecimento facial é mais preciso para detectar nossas orientações do que os testes de personalidade usados pela CA no Facebook?
Curtidas no Facebook tinham índice de acerto de 85% na detecção de orientação política. O reconhecimento facial tem índice de 72%. Então, o rosto não é tão revelador quanto curtidas no Facebook. Porém, ter acesso a essas curtidas dá trabalho – você precisa ter acesso às contas e trabalhar os dados. Você só não tem trabalho se você é o Facebook, o Google ou o governo. Por outro lado, os rostos são públicos por padrão. Infelizmente, isso significa que, embora menos revelador, esse dado é mais acessível. Tem o potencial para ser uma ferramenta útil para extrair informações. O que eu publiquei já está sendo feito por startups. Não estou apresentando nada novo.
Há alguma razão para você ter publicado este artigo apenas depois das eleições americanas?
Eu submeti esse artigo para publicação há um ano. Artigos são lidos, são rejeitados, há comentários, é preciso voltar aos comentários… Não é possível planejar uma data. Adoraria publicar com mais velocidade.
O que houve de diferente nas eleições americanas de 2016 e 2020 em termos de influência de redes sociais e algoritmos?
Nada, exceto pelo fato de que houve mais ação desses agentes. Houve mais comunicação online, mais marketing e mais radicalização. Acho que nos acostumamos a isso. Além disso, o candidato que representa os formadores de opinião e o mundo da tecnologia ganhou. Isso significa que você não precisa de um bode expiatório para a derrota, um grande fator para o barulho das eleições passadas. Hillary Clinton gastou três vezes mais em serviços como o da CA, mas nem isso pode fazer você ganhar se você não tem uma mensagem que captura o imaginário e os medos das pessoas.
Os comentários são exclusivos para assinantes do Estadão.