Quem garante que nós somos quem dizemos ser? Essa provocação faz sentido em um tempo em que a inteligência artificial ajuda a identificar pessoas (incluindo criminosos), mas ainda erra muito nessa tarefa, com resultados indesejáveis, como mandar inocentes para a cadeia. Decisões recentes da Meta esquentam esse debate sobre como equilibrar os benefícios e os riscos dessa tecnologia.
A empresa, que é dona do Facebook, do Instagram e do WhatsApp, anunciou recentemente duas medidas bem-vindas nesse campo. A primeira mapeará rostos de celebridades para evitar que suas imagens sejam usadas em vídeos falsos, em que normalmente aparecem vendendo produtos. Em outra iniciativa, a IA será usada para tentar identificar a idade de usuários, em um movimento para prevenir que crianças e adolescentes sejam expostos a conteúdos inadequados.
Os anúncios, especialmente o primeiro, desfazem uma reviravolta na postura da companhia nessa área: em 2021, o reconhecimento facial dos seus produtos, que já funcionava havia uma década, foi desativado diante da pressão da sociedade, problemas regulatórios e investigações em diferentes países. Agora, ele está de volta, como resposta à demanda pelo combate à usurpação de imagens alheias.
Essas ações da Meta são emblemáticas pela enorme importância de seus produtos na vida de bilhões de pessoas, mas estão longe de serem únicas nessa polêmica. O uso da IA na identificação é cada vez mais comum, e raramente o cidadão sabe desse monitoramento. A sociedade precisa estar consciente desse "Big Brother permanente" a que estamos submetidos, para decidir se seus ganhos superam os problemas.
Veja esse artigo em vídeo:
O reconhecimento de imagem da Meta era usado para automaticamente marcar pessoas nas fotos publicadas nas plataformas, criando vínculos entre as contas dos usuários. Além disso, as pessoas eram avisadas que estavam aparecendo em fotos alheias. Mas diante dos questionamentos sobre como essa tecnologia seria usada, a big tech eliminou o recurso e apagou os dados faciais de mais de 1 bilhão de pessoas.
Agora a empresa está reativando a tecnologia para evitar que as imagens de celebridades e outras pessoas públicas sejam usadas sem permissão em publicidades no Facebook e no Instagram. Se o sistema identificar isso, o anúncio será automaticamente tirado do ar. Já em testes com algumas celebridades, ele valerá para todas elas no ano que vem. Se alguma não quiser que o sistema reconheça sua imagem, deverá informar essa decisão na plataforma.
- Assine gratuitamente minha newsletter sobre IA, experiência do cliente, mídia e transformação digital
- Inscreva-se no meu podcast (escolha a plataforma): Spotify, Deezer, Apple Podcasts ou Soundcloud
A Meta também usará o reconhecimento de imagem para restituir contas roubadas a seus verdadeiros donos. Nesse caso, a pessoa deverá gravar um vídeo de seu rosto, que será comparado com as fotos nos perfis do Facebook e do Instagram. A empresa afirma que, tanto nesse recurso quanto na verificação em publicidade, o reconhecimento facial não será usado para nenhuma outra finalidade, e os arquivos usados no processo serão excluídos ao seu final.
Também para o próximo ano, a Meta implantará o recurso "classificador de adultos", que usará a IA para descobrir a idade real de um usuário. No caso de concluir que tem menos de 18 anos, a conta será automaticamente classificada como de adolescente, o que implica em várias restrições. Para isso, a tecnologia monitorará publicações e gostos do próprio usuário e de seus amigos. Ao se tentar alterar a idade, o sistema poderá exigir que o usuário grave um vídeo para estimá-la por características faciais.
Muitos adolescentes mentem a idade para ficarem livres desses limites. Com isso, ficam expostos a diferentes conteúdos nocivos, que podem causar problemas variados de saúde mental. Ao redor do mundo, há até mesmo diversos casos de suicídio de adolescentes atribuídos a influência do que viram no Facebook e no Instagram.
Ninguém discute as boas intenções dessas iniciativas. Mas há sempre o temor de que isso possa violar diferentes direitos individuais. E apesar de a Meta garantir que essas informações não serão usadas para outra finalidade, o histórico da companhia de lucrar muito com as informações de seus usuários representa uma sombra indelével. Além disso, a IA desses sistemas foi e continua sendo responsável direta por todo tipo de manipulação política e econômica, que levou à insana polarização da sociedade nos últimos anos.
Big Brother para todos
Apesar disso, restringir o acesso da Meta aos nossos dados é mais fácil que o visto em outras casos. Ela é uma empresa com produtos claramente identificados e, ainda que contra sua vontade e de maneiras pouco óbvias, o usuário pode impedir que a big tech use seus dados para algumas atividades, como o treinamento de sua IA. Mas não se pode esquecer que seu modelo de negócios é todo construído sobre usar nossas informações para nos entregar anúncios "mais relevantes".
Quando andamos na rua, a situação fica muito mais grave. Em grandes cidades do mundo, somos continuamente monitorados por incontáveis câmeras públicas e privadas. Entre seus objetivos, estão nos identificar para segurança, interesses de diferentes organizações particulares e governamentais, identificação de padrões de comportamento e muito mais.
Novamente muitos desses serviços trazem benefícios aos indivíduos, mas também podem causar enormes transtornos quando erram. E erram muito! Além disso, as pessoas não são sequer informadas de que estão sendo monitoradas, não dando consentimento para tal, o que, de cara, violaria a Lei Geral de Proteção de Dados. Obviamente elas tampouco têm como impedir essa prática.
Um bom exemplo é o programa Smart Sampa, que espalhou dezenas de milhares de câmeras pela capital paulista. Sua proposta original previa "rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc." Além de ser subjetiva, monitorar alguém pela sua cor é ilegal! A redação mudou, mas o objetivo não.
O reconhecimento facial falha em torno de 1% entre brancos e 30% entre negros, especialmente mulheres. Isso acontece porque há muito menos fotos de negros que de brancos no treinamento desses sistemas. Assim muitos inocentes, em várias cidades, já foram presos por serem confundidos com criminosos, e tiveram que provar o contrário, passando por riscos e violências enquanto isso.
Esses são apenas alguns exemplos de como a IA pode causar danos enormes, mesmo quando a intenção de seu uso seja positiva. Seus benefícios são claros, e seu uso é um caminho sem volta. Mas os problemas associados a ela ainda são grandes demais para serem ignorados, e, portanto, devem ser amplamente debatidos.
Não podemos aceitar que nos sejam impostos de maneiras obscuras.
Os comentários são exclusivos para assinantes do Estadão.