Coluna quinzenal da jornalista Luciana Garbin que traz foco para as questões femininas na sociedade atual

Opinião|Deep nude: apps que ‘tiram a roupa’ podem ser mais um risco para as mulheres


Inteligência artificial facilita criação de imagens fakes usando fotos de pessoas famosas ou anônimas e aumenta risco de fraudes e violência

Por Luciana Garbin
Atualização:

Se você é daqueles que a cada dia se surpreende com alguma nova função da inteligência artificial, prepare-se para ouvir esta: por alguns poucos dólares é possível comprar na internet apps que tiram a roupa de alguém numa imagem. Gente famosa ou anônima. E aí começa o perigo.

Funciona de maneira simples. A partir da imagem de uma mulher com roupa se cria uma nova imagem da mesma pessoa sem a camiseta, o biquíni ou qualquer outra peça de roupa.

O primeiro aplicativo do tipo ficou famoso em 2019 com justamente o nome de DeepNude e logo viralizou. A tal ponto que o criador veio a público tempos depois dizendo que ia parar de vendê-lo porque “o mundo ainda não estava preparado” para ele. Também advertia que o termo de uso do aplicativo proibia a quem já o tinha adquirido de compartilhá-lo. Hahaha.

continua após a publicidade

Uma vez na internet, os aplicativos do tipo se multiplicaram. Coluna publicada pelo jornal espanhol El País em maio cita por exemplo 96 apps do tipo disponíveis para obter “nus convincentes”.

Deep nude acende alerta para uso da inteligência artificial na criação e no compartilhamento de imagens fakes usando fotos de pessoas famosas ou anônimas Foto: ADOBE STOCK

No Brasil, o chamado deep nude já tem motivado até ações na Justiça. Como a de uma mulher que começou a se relacionar com um homem que vivia terminando e voltando com a ex. Quando ele realmente resolveu ficar com a nova namorada, a ex não aceitou o fim da conturbada relação. Passou então a criar perfis falsos em redes sociais e a fazer montagens com imagens da vítima e de seu filho menor de idade. Entre elas, um deep nude, enviado a todos os seus contatos.

continua após a publicidade

Outro caso envolveu uma jovem cujo ex não se conformava com o fim de um namoro de adolescência. Irritado, passou a ameaçá-la dizendo que divulgaria fotos suas nuas para a toda a família. Fotos fakes.

“No primeiro caso conseguimos uma liminar para excluir os perfis falsos, retirar os conteúdos do ar e identificar o IP da ofensora. A ação ainda está em curso”, conta a advogada Marina Affonso Silva, especialista em Direito Digital. “No segundo, a vítima ficou com medo da exposição processual e do Efeito Streisand. Então optamos por resolver tudo de forma extrajudicial.”

Efeito Streisand é o nome que se dá ao fenômeno em que se tenta ocultar ou remover algum tipo de informação e se acaba, em vez disso, por divulgá-la ainda mais. O termo vem do sobrenome da atriz e cantora americana Barbra Streisand. Em 2003, ela processou um fotógrafo e um site que disponibilizava fotos aéreas da costa da Califórnia. Alegando preocupação com a privacidade, ela pediu que a imagem de sua casa fosse retirada. Mas o caso ficou tão popular que milhares de pessoas passaram a acessar o site só para ver a propriedade.

continua após a publicidade

Marina explica que a divulgação de deep nudes costuma vir de mãos dadas com o stalking. “Se a pessoa se dá a esse trabalho todo de fazer as montagens é porque quer atingir a vítima pessoalmente por algum motivo específico, seja por rejeição ou vingança.”

Especialistas dizem que os riscos podem aumentar quando a inteligência artificial facilitar a criação e o compartilhamento de vídeos pornôs ultrarrealistas. Tudo sem consentimento. Isso não é exatamente uma novidade. Mas a rapidez com que a IA tem simplificado a tarefa de atormentar a vida de alguém com alguns poucos cliques, sim. Num país onde já pesam sobre as mulheres tantos tipos de violência, o prognóstico é desanimador.

continua após a publicidade

Se você é daqueles que a cada dia se surpreende com alguma nova função da inteligência artificial, prepare-se para ouvir esta: por alguns poucos dólares é possível comprar na internet apps que tiram a roupa de alguém numa imagem. Gente famosa ou anônima. E aí começa o perigo.

Funciona de maneira simples. A partir da imagem de uma mulher com roupa se cria uma nova imagem da mesma pessoa sem a camiseta, o biquíni ou qualquer outra peça de roupa.

O primeiro aplicativo do tipo ficou famoso em 2019 com justamente o nome de DeepNude e logo viralizou. A tal ponto que o criador veio a público tempos depois dizendo que ia parar de vendê-lo porque “o mundo ainda não estava preparado” para ele. Também advertia que o termo de uso do aplicativo proibia a quem já o tinha adquirido de compartilhá-lo. Hahaha.

Uma vez na internet, os aplicativos do tipo se multiplicaram. Coluna publicada pelo jornal espanhol El País em maio cita por exemplo 96 apps do tipo disponíveis para obter “nus convincentes”.

Deep nude acende alerta para uso da inteligência artificial na criação e no compartilhamento de imagens fakes usando fotos de pessoas famosas ou anônimas Foto: ADOBE STOCK

No Brasil, o chamado deep nude já tem motivado até ações na Justiça. Como a de uma mulher que começou a se relacionar com um homem que vivia terminando e voltando com a ex. Quando ele realmente resolveu ficar com a nova namorada, a ex não aceitou o fim da conturbada relação. Passou então a criar perfis falsos em redes sociais e a fazer montagens com imagens da vítima e de seu filho menor de idade. Entre elas, um deep nude, enviado a todos os seus contatos.

Outro caso envolveu uma jovem cujo ex não se conformava com o fim de um namoro de adolescência. Irritado, passou a ameaçá-la dizendo que divulgaria fotos suas nuas para a toda a família. Fotos fakes.

“No primeiro caso conseguimos uma liminar para excluir os perfis falsos, retirar os conteúdos do ar e identificar o IP da ofensora. A ação ainda está em curso”, conta a advogada Marina Affonso Silva, especialista em Direito Digital. “No segundo, a vítima ficou com medo da exposição processual e do Efeito Streisand. Então optamos por resolver tudo de forma extrajudicial.”

Efeito Streisand é o nome que se dá ao fenômeno em que se tenta ocultar ou remover algum tipo de informação e se acaba, em vez disso, por divulgá-la ainda mais. O termo vem do sobrenome da atriz e cantora americana Barbra Streisand. Em 2003, ela processou um fotógrafo e um site que disponibilizava fotos aéreas da costa da Califórnia. Alegando preocupação com a privacidade, ela pediu que a imagem de sua casa fosse retirada. Mas o caso ficou tão popular que milhares de pessoas passaram a acessar o site só para ver a propriedade.

Marina explica que a divulgação de deep nudes costuma vir de mãos dadas com o stalking. “Se a pessoa se dá a esse trabalho todo de fazer as montagens é porque quer atingir a vítima pessoalmente por algum motivo específico, seja por rejeição ou vingança.”

Especialistas dizem que os riscos podem aumentar quando a inteligência artificial facilitar a criação e o compartilhamento de vídeos pornôs ultrarrealistas. Tudo sem consentimento. Isso não é exatamente uma novidade. Mas a rapidez com que a IA tem simplificado a tarefa de atormentar a vida de alguém com alguns poucos cliques, sim. Num país onde já pesam sobre as mulheres tantos tipos de violência, o prognóstico é desanimador.

Se você é daqueles que a cada dia se surpreende com alguma nova função da inteligência artificial, prepare-se para ouvir esta: por alguns poucos dólares é possível comprar na internet apps que tiram a roupa de alguém numa imagem. Gente famosa ou anônima. E aí começa o perigo.

Funciona de maneira simples. A partir da imagem de uma mulher com roupa se cria uma nova imagem da mesma pessoa sem a camiseta, o biquíni ou qualquer outra peça de roupa.

O primeiro aplicativo do tipo ficou famoso em 2019 com justamente o nome de DeepNude e logo viralizou. A tal ponto que o criador veio a público tempos depois dizendo que ia parar de vendê-lo porque “o mundo ainda não estava preparado” para ele. Também advertia que o termo de uso do aplicativo proibia a quem já o tinha adquirido de compartilhá-lo. Hahaha.

Uma vez na internet, os aplicativos do tipo se multiplicaram. Coluna publicada pelo jornal espanhol El País em maio cita por exemplo 96 apps do tipo disponíveis para obter “nus convincentes”.

Deep nude acende alerta para uso da inteligência artificial na criação e no compartilhamento de imagens fakes usando fotos de pessoas famosas ou anônimas Foto: ADOBE STOCK

No Brasil, o chamado deep nude já tem motivado até ações na Justiça. Como a de uma mulher que começou a se relacionar com um homem que vivia terminando e voltando com a ex. Quando ele realmente resolveu ficar com a nova namorada, a ex não aceitou o fim da conturbada relação. Passou então a criar perfis falsos em redes sociais e a fazer montagens com imagens da vítima e de seu filho menor de idade. Entre elas, um deep nude, enviado a todos os seus contatos.

Outro caso envolveu uma jovem cujo ex não se conformava com o fim de um namoro de adolescência. Irritado, passou a ameaçá-la dizendo que divulgaria fotos suas nuas para a toda a família. Fotos fakes.

“No primeiro caso conseguimos uma liminar para excluir os perfis falsos, retirar os conteúdos do ar e identificar o IP da ofensora. A ação ainda está em curso”, conta a advogada Marina Affonso Silva, especialista em Direito Digital. “No segundo, a vítima ficou com medo da exposição processual e do Efeito Streisand. Então optamos por resolver tudo de forma extrajudicial.”

Efeito Streisand é o nome que se dá ao fenômeno em que se tenta ocultar ou remover algum tipo de informação e se acaba, em vez disso, por divulgá-la ainda mais. O termo vem do sobrenome da atriz e cantora americana Barbra Streisand. Em 2003, ela processou um fotógrafo e um site que disponibilizava fotos aéreas da costa da Califórnia. Alegando preocupação com a privacidade, ela pediu que a imagem de sua casa fosse retirada. Mas o caso ficou tão popular que milhares de pessoas passaram a acessar o site só para ver a propriedade.

Marina explica que a divulgação de deep nudes costuma vir de mãos dadas com o stalking. “Se a pessoa se dá a esse trabalho todo de fazer as montagens é porque quer atingir a vítima pessoalmente por algum motivo específico, seja por rejeição ou vingança.”

Especialistas dizem que os riscos podem aumentar quando a inteligência artificial facilitar a criação e o compartilhamento de vídeos pornôs ultrarrealistas. Tudo sem consentimento. Isso não é exatamente uma novidade. Mas a rapidez com que a IA tem simplificado a tarefa de atormentar a vida de alguém com alguns poucos cliques, sim. Num país onde já pesam sobre as mulheres tantos tipos de violência, o prognóstico é desanimador.

Opinião por Luciana Garbin

Editora executiva no ‘Estadão’, professora na FAAP e mãe de gêmeos

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.