A Meta, dona do Facebook, Instagram e WhatsApp, anuncia nesta segunda, 21, uma nova tentativa de combater anúncios publicitários falsos em seus serviços que usam indevidamente imagens de celebridades. A gigante revelou que iniciará um teste com reconhecimento facial para detectar se celebridades foram inseridas ilegalmente em propagandas exibidas no Facebook e no Instagram. Caso o sistema detecte a fraude, os anúncios serão bloqueados.
Nos últimos meses, vídeos do tipo circularam no Brasil em alto volume nas redes sociais, usando a imagem de nomes como Drauzio Varella, William Bonner, Fátimas Bernardes e Tiago Leifert, o que gerou revolta entre vítimas que compraram os supostos produtos e entre os artistas que tiveram suas imagens roubadas. No começo deste ano, o apresentador Pedro Bial chegou a afirmar que a Meta era cúmplice em crime de falsificação após aparecer em um vídeo de tratamento contra a calvície.
Em vários desses casos, as imagens foram manipuladas com o uso de inteligência artificial (IA), produções conhecidas como deepfakes. A Meta está evitando associar a nova ferramenta de reconhecimento facial a uma solução contra vídeos gerados por IA - a companhia diz tomar medidas separadas contra o abuso de IA em seus serviços, incluindo parecerias com checadores de informação e organizações de segurança. Porém, a companhia admitiu que a nova tecnologia pode funcionar contra deepfakes.
“Se você tiver um rosto de uma celebridade gerado por IA e ele parecer indistinguível do rosto da celebridade e você estiver usando isso em um anúncio falso de celebridade, a tecnologia de reconhecimento facial poderá funcionar, avaliará essa imagem e poderá dizer: ‘Sim, é falso’”, disse ao Estadão Monika Bickert, vice-presidente de políticas de conteúdo da Meta, durante uma apresentação para jornalistas de diferentes países.
Leia Também:
“A tecnologia de reconhecimento facial avaliará o rosto que está sendo usado nos anúncio, ou seja, avaliará as características faciais e as converterá em uma equação. Em seguida, ela comparará isso com o rosto da conta real da celebridade no Instagram ou no Facebook. Se for encontrada uma correspondência, o anúncio será bloqueado. E isso é algo que acontecerá instantaneamente. É uma maneira muito rápida de tentar encontrar e interromper esses anúncios”, explicou a executiva.
A Meta disse que já testou a tecnologia com um pequeno grupo de celebridades, cujas identidades não foram reveladas, e que agora iniciará testes do tipo também no Brasil - famosos e pessoas públicas deverão receber notificações sobre o assunto nas próximas semanas. A expectativa da gigante é fazer uso amplo do sistema a partir de 2025.
Os famosos que não quiserem ter os seus rostos detectados pelo sistema antifraude poderão sinalizar isso na Central de Contas. Segundo a Meta, os dados faciais dos famosos seriam usados apenas para a comparação antigolpe e não teriam outra finalidade. O reconhecimento facial também será testado na detecção de contas falsas que se passam por celebridades.
No entanto, as soluções da empresa não devem eliminar o problema de propagandas enganosas nos serviços da gigante. O reconhecimento facial não funcionará em vídeos distribuídos pelo WhatsApp, cujo conteúdos são criptografados e não podem ser acessados por agentes externos, incluindo a própria Meta.
Sistema será usado na recuperação de contas
A companhia também vai usar tecnologia de reconhecimento facial para que usuários recuperem suas contas. Se a empresa acreditar que um perfil foi roubado, o sistema vai exigir um pequeno vídeo de rosto do usuário - o sistema, então, vai comparar as imagens com as fotos publicadas no Instagram e no Facebook.
A Meta diz que vai excluir imediatamente os dados, havendo ou não um “match” dos rostos.
A volta do reconhecimento facial na Meta
O anúncio dos novos recursos vem carregado de preocupações a críticas sobre invasão de privacidade.
Em 2021, a companhia anunciou o encerramento do seu sistema de reconhecimento facial, que na época já tinha uma década em funcionamento. Ao fazer o movimento, a empresa disse que deletou os dados faciais de mais de 1 bilhão de usuários, eliminando da plataforma um recurso que alimentou preocupações com privacidade, investigações governamentais e problemas regulatórios. Na época, a ferramenta era usada principalmente na sugestão de marcação de fotos na rede social.
Jerome Pesenti, na época vice-presidente de inteligência artificial da Meta, disse no blog da companhia que a rede social estava fazendo a mudança por causa “das muitas preocupações sobre o papel da tecnologia de reconhecimento facial na sociedade”.
Agora, a companhia afirma que mudou de ideia. “Fizemos esse anúncio na época por causa do debate mais amplo sobre como a tecnologia de reconhecimento facial deveria ser usada. Na época, dissemos que continuávamos a acreditar que essa tecnologia poderia ser uma ferramenta poderosa contra bandidos e golpistas. Agora, estamos felizes por estarmos em uma posição em que continuamos a conversar com reguladores e formuladores de políticas e especialistas em privacidade e segurança. E agora estamos em uma posição em que podemos começar a testar essa tecnologia para ajudar a manter as pessoas protegidas”, afirmou Monika Bickert.
Neste ano, a Meta fez um acordo judicial com o Estado do Texas no valor de US$ 1,4 bilhão pelo uso ilegal de tecnologia de reconhecimento facial aplicada pela rede social. O Estado entrou com a ação no ano de 2022, acusando a rede social de captar informações biométricas “bilhões de vezes” a partir de fotografias e vídeos que os usuários publicaram no Facebook sob o recurso “sugestões de marcação”. O montante pago pela companhia de Mark Zuckerberg foi o maior acordo já firmado por um estado americano.