Drauzio Varella vendendo cura milagrosa? Meta vai usar reconhecimento facial contra anúncios falsos


Companhia terá novo sistema para detecção de anúncios enganosos; movimento marca a volta do reconhecimento facial ao Facebook

Por Bruno Romani

A Meta, dona do Facebook, Instagram e WhatsApp, anuncia nesta segunda, 21, uma nova tentativa de combater anúncios publicitários falsos em seus serviços que usam indevidamente imagens de celebridades. A gigante revelou que iniciará um teste com reconhecimento facial para detectar se celebridades foram inseridas ilegalmente em propagandas exibidas no Facebook e no Instagram. Caso o sistema detecte a fraude, os anúncios serão bloqueados.

Nos últimos meses, vídeos do tipo circularam no Brasil em alto volume nas redes sociais, usando a imagem de nomes como Drauzio Varella, William Bonner, Fátimas Bernardes e Tiago Leifert, o que gerou revolta entre vítimas que compraram os supostos produtos e entre os artistas que tiveram suas imagens roubadas. No começo deste ano, o apresentador Pedro Bial chegou a afirmar que a Meta era cúmplice em crime de falsificação após aparecer em um vídeo de tratamento contra a calvície.

Em vários desses casos, as imagens foram manipuladas com o uso de inteligência artificial (IA), produções conhecidas como deepfakes. A Meta está evitando associar a nova ferramenta de reconhecimento facial a uma solução contra vídeos gerados por IA - a companhia diz tomar medidas separadas contra o abuso de IA em seus serviços, incluindo parecerias com checadores de informação e organizações de segurança. Porém, a companhia admitiu que a nova tecnologia pode funcionar contra deepfakes.

continua após a publicidade
O vídeo manipulado (à esquerda) e o original (à direito): mesmos gestos, roupa e cenário ao fundo Foto: Reprodução/Facebook/YouTube/@drauziovarella

“Se você tiver um rosto de uma celebridade gerado por IA e ele parecer indistinguível do rosto da celebridade e você estiver usando isso em um anúncio falso de celebridade, a tecnologia de reconhecimento facial poderá funcionar, avaliará essa imagem e poderá dizer: ‘Sim, é falso’”, disse ao Estadão Monika Bickert, vice-presidente de políticas de conteúdo da Meta, durante uma apresentação para jornalistas de diferentes países.

continua após a publicidade

“A tecnologia de reconhecimento facial avaliará o rosto que está sendo usado nos anúncio, ou seja, avaliará as características faciais e as converterá em uma equação. Em seguida, ela comparará isso com o rosto da conta real da celebridade no Instagram ou no Facebook. Se for encontrada uma correspondência, o anúncio será bloqueado. E isso é algo que acontecerá instantaneamente. É uma maneira muito rápida de tentar encontrar e interromper esses anúncios”, explicou a executiva.

A Meta disse que já testou a tecnologia com um pequeno grupo de celebridades, cujas identidades não foram reveladas, e que agora iniciará testes do tipo também no Brasil - famosos e pessoas públicas deverão receber notificações sobre o assunto nas próximas semanas. A expectativa da gigante é fazer uso amplo do sistema a partir de 2025.

Os famosos que não quiserem ter os seus rostos detectados pelo sistema antifraude poderão sinalizar isso na Central de Contas. Segundo a Meta, os dados faciais dos famosos seriam usados apenas para a comparação antigolpe e não teriam outra finalidade. O reconhecimento facial também será testado na detecção de contas falsas que se passam por celebridades.

continua após a publicidade

No entanto, as soluções da empresa não devem eliminar o problema de propagandas enganosas nos serviços da gigante. O reconhecimento facial não funcionará em vídeos distribuídos pelo WhatsApp, cujo conteúdos são criptografados e não podem ser acessados por agentes externos, incluindo a própria Meta.

Sistema será usado na recuperação de contas

A companhia também vai usar tecnologia de reconhecimento facial para que usuários recuperem suas contas. Se a empresa acreditar que um perfil foi roubado, o sistema vai exigir um pequeno vídeo de rosto do usuário - o sistema, então, vai comparar as imagens com as fotos publicadas no Instagram e no Facebook.

continua após a publicidade

A Meta diz que vai excluir imediatamente os dados, havendo ou não um “match” dos rostos.

A volta do reconhecimento facial na Meta

O anúncio dos novos recursos vem carregado de preocupações a críticas sobre invasão de privacidade.

continua após a publicidade

Em 2021, a companhia anunciou o encerramento do seu sistema de reconhecimento facial, que na época já tinha uma década em funcionamento. Ao fazer o movimento, a empresa disse que deletou os dados faciais de mais de 1 bilhão de usuários, eliminando da plataforma um recurso que alimentou preocupações com privacidade, investigações governamentais e problemas regulatórios. Na época, a ferramenta era usada principalmente na sugestão de marcação de fotos na rede social.

Jerome Pesenti, na época vice-presidente de inteligência artificial da Meta, disse no blog da companhia que a rede social estava fazendo a mudança por causa “das muitas preocupações sobre o papel da tecnologia de reconhecimento facial na sociedade”.

Agora, a companhia afirma que mudou de ideia. “Fizemos esse anúncio na época por causa do debate mais amplo sobre como a tecnologia de reconhecimento facial deveria ser usada. Na época, dissemos que continuávamos a acreditar que essa tecnologia poderia ser uma ferramenta poderosa contra bandidos e golpistas. Agora, estamos felizes por estarmos em uma posição em que continuamos a conversar com reguladores e formuladores de políticas e especialistas em privacidade e segurança. E agora estamos em uma posição em que podemos começar a testar essa tecnologia para ajudar a manter as pessoas protegidas”, afirmou Monika Bickert.

continua após a publicidade

Neste ano, a Meta fez um acordo judicial com o Estado do Texas no valor de US$ 1,4 bilhão pelo uso ilegal de tecnologia de reconhecimento facial aplicada pela rede social. O Estado entrou com a ação no ano de 2022, acusando a rede social de captar informações biométricas “bilhões de vezes” a partir de fotografias e vídeos que os usuários publicaram no Facebook sob o recurso “sugestões de marcação”. O montante pago pela companhia de Mark Zuckerberg foi o maior acordo já firmado por um estado americano.

A Meta, dona do Facebook, Instagram e WhatsApp, anuncia nesta segunda, 21, uma nova tentativa de combater anúncios publicitários falsos em seus serviços que usam indevidamente imagens de celebridades. A gigante revelou que iniciará um teste com reconhecimento facial para detectar se celebridades foram inseridas ilegalmente em propagandas exibidas no Facebook e no Instagram. Caso o sistema detecte a fraude, os anúncios serão bloqueados.

Nos últimos meses, vídeos do tipo circularam no Brasil em alto volume nas redes sociais, usando a imagem de nomes como Drauzio Varella, William Bonner, Fátimas Bernardes e Tiago Leifert, o que gerou revolta entre vítimas que compraram os supostos produtos e entre os artistas que tiveram suas imagens roubadas. No começo deste ano, o apresentador Pedro Bial chegou a afirmar que a Meta era cúmplice em crime de falsificação após aparecer em um vídeo de tratamento contra a calvície.

Em vários desses casos, as imagens foram manipuladas com o uso de inteligência artificial (IA), produções conhecidas como deepfakes. A Meta está evitando associar a nova ferramenta de reconhecimento facial a uma solução contra vídeos gerados por IA - a companhia diz tomar medidas separadas contra o abuso de IA em seus serviços, incluindo parecerias com checadores de informação e organizações de segurança. Porém, a companhia admitiu que a nova tecnologia pode funcionar contra deepfakes.

O vídeo manipulado (à esquerda) e o original (à direito): mesmos gestos, roupa e cenário ao fundo Foto: Reprodução/Facebook/YouTube/@drauziovarella

“Se você tiver um rosto de uma celebridade gerado por IA e ele parecer indistinguível do rosto da celebridade e você estiver usando isso em um anúncio falso de celebridade, a tecnologia de reconhecimento facial poderá funcionar, avaliará essa imagem e poderá dizer: ‘Sim, é falso’”, disse ao Estadão Monika Bickert, vice-presidente de políticas de conteúdo da Meta, durante uma apresentação para jornalistas de diferentes países.

“A tecnologia de reconhecimento facial avaliará o rosto que está sendo usado nos anúncio, ou seja, avaliará as características faciais e as converterá em uma equação. Em seguida, ela comparará isso com o rosto da conta real da celebridade no Instagram ou no Facebook. Se for encontrada uma correspondência, o anúncio será bloqueado. E isso é algo que acontecerá instantaneamente. É uma maneira muito rápida de tentar encontrar e interromper esses anúncios”, explicou a executiva.

A Meta disse que já testou a tecnologia com um pequeno grupo de celebridades, cujas identidades não foram reveladas, e que agora iniciará testes do tipo também no Brasil - famosos e pessoas públicas deverão receber notificações sobre o assunto nas próximas semanas. A expectativa da gigante é fazer uso amplo do sistema a partir de 2025.

Os famosos que não quiserem ter os seus rostos detectados pelo sistema antifraude poderão sinalizar isso na Central de Contas. Segundo a Meta, os dados faciais dos famosos seriam usados apenas para a comparação antigolpe e não teriam outra finalidade. O reconhecimento facial também será testado na detecção de contas falsas que se passam por celebridades.

No entanto, as soluções da empresa não devem eliminar o problema de propagandas enganosas nos serviços da gigante. O reconhecimento facial não funcionará em vídeos distribuídos pelo WhatsApp, cujo conteúdos são criptografados e não podem ser acessados por agentes externos, incluindo a própria Meta.

Sistema será usado na recuperação de contas

A companhia também vai usar tecnologia de reconhecimento facial para que usuários recuperem suas contas. Se a empresa acreditar que um perfil foi roubado, o sistema vai exigir um pequeno vídeo de rosto do usuário - o sistema, então, vai comparar as imagens com as fotos publicadas no Instagram e no Facebook.

A Meta diz que vai excluir imediatamente os dados, havendo ou não um “match” dos rostos.

A volta do reconhecimento facial na Meta

O anúncio dos novos recursos vem carregado de preocupações a críticas sobre invasão de privacidade.

Em 2021, a companhia anunciou o encerramento do seu sistema de reconhecimento facial, que na época já tinha uma década em funcionamento. Ao fazer o movimento, a empresa disse que deletou os dados faciais de mais de 1 bilhão de usuários, eliminando da plataforma um recurso que alimentou preocupações com privacidade, investigações governamentais e problemas regulatórios. Na época, a ferramenta era usada principalmente na sugestão de marcação de fotos na rede social.

Jerome Pesenti, na época vice-presidente de inteligência artificial da Meta, disse no blog da companhia que a rede social estava fazendo a mudança por causa “das muitas preocupações sobre o papel da tecnologia de reconhecimento facial na sociedade”.

Agora, a companhia afirma que mudou de ideia. “Fizemos esse anúncio na época por causa do debate mais amplo sobre como a tecnologia de reconhecimento facial deveria ser usada. Na época, dissemos que continuávamos a acreditar que essa tecnologia poderia ser uma ferramenta poderosa contra bandidos e golpistas. Agora, estamos felizes por estarmos em uma posição em que continuamos a conversar com reguladores e formuladores de políticas e especialistas em privacidade e segurança. E agora estamos em uma posição em que podemos começar a testar essa tecnologia para ajudar a manter as pessoas protegidas”, afirmou Monika Bickert.

Neste ano, a Meta fez um acordo judicial com o Estado do Texas no valor de US$ 1,4 bilhão pelo uso ilegal de tecnologia de reconhecimento facial aplicada pela rede social. O Estado entrou com a ação no ano de 2022, acusando a rede social de captar informações biométricas “bilhões de vezes” a partir de fotografias e vídeos que os usuários publicaram no Facebook sob o recurso “sugestões de marcação”. O montante pago pela companhia de Mark Zuckerberg foi o maior acordo já firmado por um estado americano.

A Meta, dona do Facebook, Instagram e WhatsApp, anuncia nesta segunda, 21, uma nova tentativa de combater anúncios publicitários falsos em seus serviços que usam indevidamente imagens de celebridades. A gigante revelou que iniciará um teste com reconhecimento facial para detectar se celebridades foram inseridas ilegalmente em propagandas exibidas no Facebook e no Instagram. Caso o sistema detecte a fraude, os anúncios serão bloqueados.

Nos últimos meses, vídeos do tipo circularam no Brasil em alto volume nas redes sociais, usando a imagem de nomes como Drauzio Varella, William Bonner, Fátimas Bernardes e Tiago Leifert, o que gerou revolta entre vítimas que compraram os supostos produtos e entre os artistas que tiveram suas imagens roubadas. No começo deste ano, o apresentador Pedro Bial chegou a afirmar que a Meta era cúmplice em crime de falsificação após aparecer em um vídeo de tratamento contra a calvície.

Em vários desses casos, as imagens foram manipuladas com o uso de inteligência artificial (IA), produções conhecidas como deepfakes. A Meta está evitando associar a nova ferramenta de reconhecimento facial a uma solução contra vídeos gerados por IA - a companhia diz tomar medidas separadas contra o abuso de IA em seus serviços, incluindo parecerias com checadores de informação e organizações de segurança. Porém, a companhia admitiu que a nova tecnologia pode funcionar contra deepfakes.

O vídeo manipulado (à esquerda) e o original (à direito): mesmos gestos, roupa e cenário ao fundo Foto: Reprodução/Facebook/YouTube/@drauziovarella

“Se você tiver um rosto de uma celebridade gerado por IA e ele parecer indistinguível do rosto da celebridade e você estiver usando isso em um anúncio falso de celebridade, a tecnologia de reconhecimento facial poderá funcionar, avaliará essa imagem e poderá dizer: ‘Sim, é falso’”, disse ao Estadão Monika Bickert, vice-presidente de políticas de conteúdo da Meta, durante uma apresentação para jornalistas de diferentes países.

“A tecnologia de reconhecimento facial avaliará o rosto que está sendo usado nos anúncio, ou seja, avaliará as características faciais e as converterá em uma equação. Em seguida, ela comparará isso com o rosto da conta real da celebridade no Instagram ou no Facebook. Se for encontrada uma correspondência, o anúncio será bloqueado. E isso é algo que acontecerá instantaneamente. É uma maneira muito rápida de tentar encontrar e interromper esses anúncios”, explicou a executiva.

A Meta disse que já testou a tecnologia com um pequeno grupo de celebridades, cujas identidades não foram reveladas, e que agora iniciará testes do tipo também no Brasil - famosos e pessoas públicas deverão receber notificações sobre o assunto nas próximas semanas. A expectativa da gigante é fazer uso amplo do sistema a partir de 2025.

Os famosos que não quiserem ter os seus rostos detectados pelo sistema antifraude poderão sinalizar isso na Central de Contas. Segundo a Meta, os dados faciais dos famosos seriam usados apenas para a comparação antigolpe e não teriam outra finalidade. O reconhecimento facial também será testado na detecção de contas falsas que se passam por celebridades.

No entanto, as soluções da empresa não devem eliminar o problema de propagandas enganosas nos serviços da gigante. O reconhecimento facial não funcionará em vídeos distribuídos pelo WhatsApp, cujo conteúdos são criptografados e não podem ser acessados por agentes externos, incluindo a própria Meta.

Sistema será usado na recuperação de contas

A companhia também vai usar tecnologia de reconhecimento facial para que usuários recuperem suas contas. Se a empresa acreditar que um perfil foi roubado, o sistema vai exigir um pequeno vídeo de rosto do usuário - o sistema, então, vai comparar as imagens com as fotos publicadas no Instagram e no Facebook.

A Meta diz que vai excluir imediatamente os dados, havendo ou não um “match” dos rostos.

A volta do reconhecimento facial na Meta

O anúncio dos novos recursos vem carregado de preocupações a críticas sobre invasão de privacidade.

Em 2021, a companhia anunciou o encerramento do seu sistema de reconhecimento facial, que na época já tinha uma década em funcionamento. Ao fazer o movimento, a empresa disse que deletou os dados faciais de mais de 1 bilhão de usuários, eliminando da plataforma um recurso que alimentou preocupações com privacidade, investigações governamentais e problemas regulatórios. Na época, a ferramenta era usada principalmente na sugestão de marcação de fotos na rede social.

Jerome Pesenti, na época vice-presidente de inteligência artificial da Meta, disse no blog da companhia que a rede social estava fazendo a mudança por causa “das muitas preocupações sobre o papel da tecnologia de reconhecimento facial na sociedade”.

Agora, a companhia afirma que mudou de ideia. “Fizemos esse anúncio na época por causa do debate mais amplo sobre como a tecnologia de reconhecimento facial deveria ser usada. Na época, dissemos que continuávamos a acreditar que essa tecnologia poderia ser uma ferramenta poderosa contra bandidos e golpistas. Agora, estamos felizes por estarmos em uma posição em que continuamos a conversar com reguladores e formuladores de políticas e especialistas em privacidade e segurança. E agora estamos em uma posição em que podemos começar a testar essa tecnologia para ajudar a manter as pessoas protegidas”, afirmou Monika Bickert.

Neste ano, a Meta fez um acordo judicial com o Estado do Texas no valor de US$ 1,4 bilhão pelo uso ilegal de tecnologia de reconhecimento facial aplicada pela rede social. O Estado entrou com a ação no ano de 2022, acusando a rede social de captar informações biométricas “bilhões de vezes” a partir de fotografias e vídeos que os usuários publicaram no Facebook sob o recurso “sugestões de marcação”. O montante pago pela companhia de Mark Zuckerberg foi o maior acordo já firmado por um estado americano.

A Meta, dona do Facebook, Instagram e WhatsApp, anuncia nesta segunda, 21, uma nova tentativa de combater anúncios publicitários falsos em seus serviços que usam indevidamente imagens de celebridades. A gigante revelou que iniciará um teste com reconhecimento facial para detectar se celebridades foram inseridas ilegalmente em propagandas exibidas no Facebook e no Instagram. Caso o sistema detecte a fraude, os anúncios serão bloqueados.

Nos últimos meses, vídeos do tipo circularam no Brasil em alto volume nas redes sociais, usando a imagem de nomes como Drauzio Varella, William Bonner, Fátimas Bernardes e Tiago Leifert, o que gerou revolta entre vítimas que compraram os supostos produtos e entre os artistas que tiveram suas imagens roubadas. No começo deste ano, o apresentador Pedro Bial chegou a afirmar que a Meta era cúmplice em crime de falsificação após aparecer em um vídeo de tratamento contra a calvície.

Em vários desses casos, as imagens foram manipuladas com o uso de inteligência artificial (IA), produções conhecidas como deepfakes. A Meta está evitando associar a nova ferramenta de reconhecimento facial a uma solução contra vídeos gerados por IA - a companhia diz tomar medidas separadas contra o abuso de IA em seus serviços, incluindo parecerias com checadores de informação e organizações de segurança. Porém, a companhia admitiu que a nova tecnologia pode funcionar contra deepfakes.

O vídeo manipulado (à esquerda) e o original (à direito): mesmos gestos, roupa e cenário ao fundo Foto: Reprodução/Facebook/YouTube/@drauziovarella

“Se você tiver um rosto de uma celebridade gerado por IA e ele parecer indistinguível do rosto da celebridade e você estiver usando isso em um anúncio falso de celebridade, a tecnologia de reconhecimento facial poderá funcionar, avaliará essa imagem e poderá dizer: ‘Sim, é falso’”, disse ao Estadão Monika Bickert, vice-presidente de políticas de conteúdo da Meta, durante uma apresentação para jornalistas de diferentes países.

“A tecnologia de reconhecimento facial avaliará o rosto que está sendo usado nos anúncio, ou seja, avaliará as características faciais e as converterá em uma equação. Em seguida, ela comparará isso com o rosto da conta real da celebridade no Instagram ou no Facebook. Se for encontrada uma correspondência, o anúncio será bloqueado. E isso é algo que acontecerá instantaneamente. É uma maneira muito rápida de tentar encontrar e interromper esses anúncios”, explicou a executiva.

A Meta disse que já testou a tecnologia com um pequeno grupo de celebridades, cujas identidades não foram reveladas, e que agora iniciará testes do tipo também no Brasil - famosos e pessoas públicas deverão receber notificações sobre o assunto nas próximas semanas. A expectativa da gigante é fazer uso amplo do sistema a partir de 2025.

Os famosos que não quiserem ter os seus rostos detectados pelo sistema antifraude poderão sinalizar isso na Central de Contas. Segundo a Meta, os dados faciais dos famosos seriam usados apenas para a comparação antigolpe e não teriam outra finalidade. O reconhecimento facial também será testado na detecção de contas falsas que se passam por celebridades.

No entanto, as soluções da empresa não devem eliminar o problema de propagandas enganosas nos serviços da gigante. O reconhecimento facial não funcionará em vídeos distribuídos pelo WhatsApp, cujo conteúdos são criptografados e não podem ser acessados por agentes externos, incluindo a própria Meta.

Sistema será usado na recuperação de contas

A companhia também vai usar tecnologia de reconhecimento facial para que usuários recuperem suas contas. Se a empresa acreditar que um perfil foi roubado, o sistema vai exigir um pequeno vídeo de rosto do usuário - o sistema, então, vai comparar as imagens com as fotos publicadas no Instagram e no Facebook.

A Meta diz que vai excluir imediatamente os dados, havendo ou não um “match” dos rostos.

A volta do reconhecimento facial na Meta

O anúncio dos novos recursos vem carregado de preocupações a críticas sobre invasão de privacidade.

Em 2021, a companhia anunciou o encerramento do seu sistema de reconhecimento facial, que na época já tinha uma década em funcionamento. Ao fazer o movimento, a empresa disse que deletou os dados faciais de mais de 1 bilhão de usuários, eliminando da plataforma um recurso que alimentou preocupações com privacidade, investigações governamentais e problemas regulatórios. Na época, a ferramenta era usada principalmente na sugestão de marcação de fotos na rede social.

Jerome Pesenti, na época vice-presidente de inteligência artificial da Meta, disse no blog da companhia que a rede social estava fazendo a mudança por causa “das muitas preocupações sobre o papel da tecnologia de reconhecimento facial na sociedade”.

Agora, a companhia afirma que mudou de ideia. “Fizemos esse anúncio na época por causa do debate mais amplo sobre como a tecnologia de reconhecimento facial deveria ser usada. Na época, dissemos que continuávamos a acreditar que essa tecnologia poderia ser uma ferramenta poderosa contra bandidos e golpistas. Agora, estamos felizes por estarmos em uma posição em que continuamos a conversar com reguladores e formuladores de políticas e especialistas em privacidade e segurança. E agora estamos em uma posição em que podemos começar a testar essa tecnologia para ajudar a manter as pessoas protegidas”, afirmou Monika Bickert.

Neste ano, a Meta fez um acordo judicial com o Estado do Texas no valor de US$ 1,4 bilhão pelo uso ilegal de tecnologia de reconhecimento facial aplicada pela rede social. O Estado entrou com a ação no ano de 2022, acusando a rede social de captar informações biométricas “bilhões de vezes” a partir de fotografias e vídeos que os usuários publicaram no Facebook sob o recurso “sugestões de marcação”. O montante pago pela companhia de Mark Zuckerberg foi o maior acordo já firmado por um estado americano.

A Meta, dona do Facebook, Instagram e WhatsApp, anuncia nesta segunda, 21, uma nova tentativa de combater anúncios publicitários falsos em seus serviços que usam indevidamente imagens de celebridades. A gigante revelou que iniciará um teste com reconhecimento facial para detectar se celebridades foram inseridas ilegalmente em propagandas exibidas no Facebook e no Instagram. Caso o sistema detecte a fraude, os anúncios serão bloqueados.

Nos últimos meses, vídeos do tipo circularam no Brasil em alto volume nas redes sociais, usando a imagem de nomes como Drauzio Varella, William Bonner, Fátimas Bernardes e Tiago Leifert, o que gerou revolta entre vítimas que compraram os supostos produtos e entre os artistas que tiveram suas imagens roubadas. No começo deste ano, o apresentador Pedro Bial chegou a afirmar que a Meta era cúmplice em crime de falsificação após aparecer em um vídeo de tratamento contra a calvície.

Em vários desses casos, as imagens foram manipuladas com o uso de inteligência artificial (IA), produções conhecidas como deepfakes. A Meta está evitando associar a nova ferramenta de reconhecimento facial a uma solução contra vídeos gerados por IA - a companhia diz tomar medidas separadas contra o abuso de IA em seus serviços, incluindo parecerias com checadores de informação e organizações de segurança. Porém, a companhia admitiu que a nova tecnologia pode funcionar contra deepfakes.

O vídeo manipulado (à esquerda) e o original (à direito): mesmos gestos, roupa e cenário ao fundo Foto: Reprodução/Facebook/YouTube/@drauziovarella

“Se você tiver um rosto de uma celebridade gerado por IA e ele parecer indistinguível do rosto da celebridade e você estiver usando isso em um anúncio falso de celebridade, a tecnologia de reconhecimento facial poderá funcionar, avaliará essa imagem e poderá dizer: ‘Sim, é falso’”, disse ao Estadão Monika Bickert, vice-presidente de políticas de conteúdo da Meta, durante uma apresentação para jornalistas de diferentes países.

“A tecnologia de reconhecimento facial avaliará o rosto que está sendo usado nos anúncio, ou seja, avaliará as características faciais e as converterá em uma equação. Em seguida, ela comparará isso com o rosto da conta real da celebridade no Instagram ou no Facebook. Se for encontrada uma correspondência, o anúncio será bloqueado. E isso é algo que acontecerá instantaneamente. É uma maneira muito rápida de tentar encontrar e interromper esses anúncios”, explicou a executiva.

A Meta disse que já testou a tecnologia com um pequeno grupo de celebridades, cujas identidades não foram reveladas, e que agora iniciará testes do tipo também no Brasil - famosos e pessoas públicas deverão receber notificações sobre o assunto nas próximas semanas. A expectativa da gigante é fazer uso amplo do sistema a partir de 2025.

Os famosos que não quiserem ter os seus rostos detectados pelo sistema antifraude poderão sinalizar isso na Central de Contas. Segundo a Meta, os dados faciais dos famosos seriam usados apenas para a comparação antigolpe e não teriam outra finalidade. O reconhecimento facial também será testado na detecção de contas falsas que se passam por celebridades.

No entanto, as soluções da empresa não devem eliminar o problema de propagandas enganosas nos serviços da gigante. O reconhecimento facial não funcionará em vídeos distribuídos pelo WhatsApp, cujo conteúdos são criptografados e não podem ser acessados por agentes externos, incluindo a própria Meta.

Sistema será usado na recuperação de contas

A companhia também vai usar tecnologia de reconhecimento facial para que usuários recuperem suas contas. Se a empresa acreditar que um perfil foi roubado, o sistema vai exigir um pequeno vídeo de rosto do usuário - o sistema, então, vai comparar as imagens com as fotos publicadas no Instagram e no Facebook.

A Meta diz que vai excluir imediatamente os dados, havendo ou não um “match” dos rostos.

A volta do reconhecimento facial na Meta

O anúncio dos novos recursos vem carregado de preocupações a críticas sobre invasão de privacidade.

Em 2021, a companhia anunciou o encerramento do seu sistema de reconhecimento facial, que na época já tinha uma década em funcionamento. Ao fazer o movimento, a empresa disse que deletou os dados faciais de mais de 1 bilhão de usuários, eliminando da plataforma um recurso que alimentou preocupações com privacidade, investigações governamentais e problemas regulatórios. Na época, a ferramenta era usada principalmente na sugestão de marcação de fotos na rede social.

Jerome Pesenti, na época vice-presidente de inteligência artificial da Meta, disse no blog da companhia que a rede social estava fazendo a mudança por causa “das muitas preocupações sobre o papel da tecnologia de reconhecimento facial na sociedade”.

Agora, a companhia afirma que mudou de ideia. “Fizemos esse anúncio na época por causa do debate mais amplo sobre como a tecnologia de reconhecimento facial deveria ser usada. Na época, dissemos que continuávamos a acreditar que essa tecnologia poderia ser uma ferramenta poderosa contra bandidos e golpistas. Agora, estamos felizes por estarmos em uma posição em que continuamos a conversar com reguladores e formuladores de políticas e especialistas em privacidade e segurança. E agora estamos em uma posição em que podemos começar a testar essa tecnologia para ajudar a manter as pessoas protegidas”, afirmou Monika Bickert.

Neste ano, a Meta fez um acordo judicial com o Estado do Texas no valor de US$ 1,4 bilhão pelo uso ilegal de tecnologia de reconhecimento facial aplicada pela rede social. O Estado entrou com a ação no ano de 2022, acusando a rede social de captar informações biométricas “bilhões de vezes” a partir de fotografias e vídeos que os usuários publicaram no Facebook sob o recurso “sugestões de marcação”. O montante pago pela companhia de Mark Zuckerberg foi o maior acordo já firmado por um estado americano.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.