Jornalista, escritor e palestrante. Escreve às quintas

Opinião|Nudes falsos de Taylor Swift mostram perigos da inteligência artificial para mulheres


Com avanço da tecnologia, sociedade precisa estar preparada para encarar o tema

Por Pedro Doria

O que aconteceu com a cantora Taylor Swift, durante o fim de semana no X (ou Twitter), é um alerta. Algumas dezenas de imagens suas, todas produzidas com inteligência artificial (IA), foram vistas dezenas de milhões de vezes. Taylor aparece nelas ou nua, ou com pouca roupa, sempre cercada de muitos homens, que fazem do seu corpo o que querem. No rosto ela demonstra algo próximo do êxtase. As imagens não são de um realismo fotográfico, ninguém as confundiria com algo real. No estilo, são ilustrações hiperrealistas. E são, também, de uma violência desmedida.

Tem muitas camadas de informação e significados para decodificar neste assunto.

(FILES) US singer-songwriter Taylor Swift performs onstage on the first night of her "Eras Tour" at AT&T Stadium in Arlington, Texas, on March 31, 2023. All recorded music licensed to Universal Music Group has been removed from TikTok's music library on February 1, 2024, and all videos containing music licensed by Universal have been muted. (Photo by SUZANNE CORDEIRO / AFP) Foto: SUZANNE CORDEIRO / AFP
continua após a publicidade

O primeiro ponto é crucial entender: é muito fácil construir imagens erotizadas com o rosto de qualquer pessoa. Qualquer pessoa um pouco hábil com as coisas do mundo digital aprende num par de horas. Adolescentes, em muito menos. Há seis meses não era tão fácil quanto é hoje. Daqui a seis meses não tem por que não se tornar coisa ainda mais trivial. O que inteligência artificial generativa cria só passa por ilustração se for escolha de quem está inventando. Se o objetivo for fotorrealismo, é tão possível quanto. Talvez demore um ano ou dois, mas esta facilidade chegará também ao vídeo.

A facilidade não é importante apenas pelo motivo óbvio — o de que qualquer um pode produzir esse tipo de imagem. É também porque, fácil assim, sequer parece criminoso. É só uma coisa na tela que alguém produz com tão pouco esforço que sequer parece grave. Passa fácil por uma curiosidade, uma brincadeira entre amigos. Não dá tempo de pensar nas consequências.

continua após a publicidade

Taylor Swift é a cantora mais famosa do mundo e, por isso, suas imagens foram distribuídas aos milhões. Para uma pessoa comum, o impacto é potencialmente bem mais devastador mesmo que só algumas dezenas de pessoas recebam a imagem. A professora Marry Anne Franks, uma jurista da Universidade de Miami, mapeou o que viu acontecer com já algumas adolescentes vítimas deste tipo de falsificação. A escola se torna um pesadelo — em geral, não dá para saber quem criou as imagens. Um colega? Talvez um professor? A angústia consome, o sentimento é de humilhação quando a menina se torna o assunto da escola. Prestar atenção nas aulas se torna impossível. Se a imagem vaza para além da escola, é comum que adultos comecem a segui-las nas redes sociais. Eles enviam mensagens. É como se um cerco se fechasse, um cerco que sufoca.

É importante trazer rápido este tema para nossas conversas. Para que estejamos, como sociedade, preparados para encará-lo. O que estas imagens produzem é sequestro de identidade. É tirar de suas vítimas qualquer controle sobre como são vistas. O dano reputacional, para mulheres já adultas, pode também ser imenso. Coisa de destruir carreiras, causar depressão. Até o pior.

É importante encarar o tema porque vai acontecer de novo até termos todos os códigos, legais e sociais, já adaptados para a nova realidade.

O que aconteceu com a cantora Taylor Swift, durante o fim de semana no X (ou Twitter), é um alerta. Algumas dezenas de imagens suas, todas produzidas com inteligência artificial (IA), foram vistas dezenas de milhões de vezes. Taylor aparece nelas ou nua, ou com pouca roupa, sempre cercada de muitos homens, que fazem do seu corpo o que querem. No rosto ela demonstra algo próximo do êxtase. As imagens não são de um realismo fotográfico, ninguém as confundiria com algo real. No estilo, são ilustrações hiperrealistas. E são, também, de uma violência desmedida.

Tem muitas camadas de informação e significados para decodificar neste assunto.

(FILES) US singer-songwriter Taylor Swift performs onstage on the first night of her "Eras Tour" at AT&T Stadium in Arlington, Texas, on March 31, 2023. All recorded music licensed to Universal Music Group has been removed from TikTok's music library on February 1, 2024, and all videos containing music licensed by Universal have been muted. (Photo by SUZANNE CORDEIRO / AFP) Foto: SUZANNE CORDEIRO / AFP

O primeiro ponto é crucial entender: é muito fácil construir imagens erotizadas com o rosto de qualquer pessoa. Qualquer pessoa um pouco hábil com as coisas do mundo digital aprende num par de horas. Adolescentes, em muito menos. Há seis meses não era tão fácil quanto é hoje. Daqui a seis meses não tem por que não se tornar coisa ainda mais trivial. O que inteligência artificial generativa cria só passa por ilustração se for escolha de quem está inventando. Se o objetivo for fotorrealismo, é tão possível quanto. Talvez demore um ano ou dois, mas esta facilidade chegará também ao vídeo.

A facilidade não é importante apenas pelo motivo óbvio — o de que qualquer um pode produzir esse tipo de imagem. É também porque, fácil assim, sequer parece criminoso. É só uma coisa na tela que alguém produz com tão pouco esforço que sequer parece grave. Passa fácil por uma curiosidade, uma brincadeira entre amigos. Não dá tempo de pensar nas consequências.

Taylor Swift é a cantora mais famosa do mundo e, por isso, suas imagens foram distribuídas aos milhões. Para uma pessoa comum, o impacto é potencialmente bem mais devastador mesmo que só algumas dezenas de pessoas recebam a imagem. A professora Marry Anne Franks, uma jurista da Universidade de Miami, mapeou o que viu acontecer com já algumas adolescentes vítimas deste tipo de falsificação. A escola se torna um pesadelo — em geral, não dá para saber quem criou as imagens. Um colega? Talvez um professor? A angústia consome, o sentimento é de humilhação quando a menina se torna o assunto da escola. Prestar atenção nas aulas se torna impossível. Se a imagem vaza para além da escola, é comum que adultos comecem a segui-las nas redes sociais. Eles enviam mensagens. É como se um cerco se fechasse, um cerco que sufoca.

É importante trazer rápido este tema para nossas conversas. Para que estejamos, como sociedade, preparados para encará-lo. O que estas imagens produzem é sequestro de identidade. É tirar de suas vítimas qualquer controle sobre como são vistas. O dano reputacional, para mulheres já adultas, pode também ser imenso. Coisa de destruir carreiras, causar depressão. Até o pior.

É importante encarar o tema porque vai acontecer de novo até termos todos os códigos, legais e sociais, já adaptados para a nova realidade.

O que aconteceu com a cantora Taylor Swift, durante o fim de semana no X (ou Twitter), é um alerta. Algumas dezenas de imagens suas, todas produzidas com inteligência artificial (IA), foram vistas dezenas de milhões de vezes. Taylor aparece nelas ou nua, ou com pouca roupa, sempre cercada de muitos homens, que fazem do seu corpo o que querem. No rosto ela demonstra algo próximo do êxtase. As imagens não são de um realismo fotográfico, ninguém as confundiria com algo real. No estilo, são ilustrações hiperrealistas. E são, também, de uma violência desmedida.

Tem muitas camadas de informação e significados para decodificar neste assunto.

(FILES) US singer-songwriter Taylor Swift performs onstage on the first night of her "Eras Tour" at AT&T Stadium in Arlington, Texas, on March 31, 2023. All recorded music licensed to Universal Music Group has been removed from TikTok's music library on February 1, 2024, and all videos containing music licensed by Universal have been muted. (Photo by SUZANNE CORDEIRO / AFP) Foto: SUZANNE CORDEIRO / AFP

O primeiro ponto é crucial entender: é muito fácil construir imagens erotizadas com o rosto de qualquer pessoa. Qualquer pessoa um pouco hábil com as coisas do mundo digital aprende num par de horas. Adolescentes, em muito menos. Há seis meses não era tão fácil quanto é hoje. Daqui a seis meses não tem por que não se tornar coisa ainda mais trivial. O que inteligência artificial generativa cria só passa por ilustração se for escolha de quem está inventando. Se o objetivo for fotorrealismo, é tão possível quanto. Talvez demore um ano ou dois, mas esta facilidade chegará também ao vídeo.

A facilidade não é importante apenas pelo motivo óbvio — o de que qualquer um pode produzir esse tipo de imagem. É também porque, fácil assim, sequer parece criminoso. É só uma coisa na tela que alguém produz com tão pouco esforço que sequer parece grave. Passa fácil por uma curiosidade, uma brincadeira entre amigos. Não dá tempo de pensar nas consequências.

Taylor Swift é a cantora mais famosa do mundo e, por isso, suas imagens foram distribuídas aos milhões. Para uma pessoa comum, o impacto é potencialmente bem mais devastador mesmo que só algumas dezenas de pessoas recebam a imagem. A professora Marry Anne Franks, uma jurista da Universidade de Miami, mapeou o que viu acontecer com já algumas adolescentes vítimas deste tipo de falsificação. A escola se torna um pesadelo — em geral, não dá para saber quem criou as imagens. Um colega? Talvez um professor? A angústia consome, o sentimento é de humilhação quando a menina se torna o assunto da escola. Prestar atenção nas aulas se torna impossível. Se a imagem vaza para além da escola, é comum que adultos comecem a segui-las nas redes sociais. Eles enviam mensagens. É como se um cerco se fechasse, um cerco que sufoca.

É importante trazer rápido este tema para nossas conversas. Para que estejamos, como sociedade, preparados para encará-lo. O que estas imagens produzem é sequestro de identidade. É tirar de suas vítimas qualquer controle sobre como são vistas. O dano reputacional, para mulheres já adultas, pode também ser imenso. Coisa de destruir carreiras, causar depressão. Até o pior.

É importante encarar o tema porque vai acontecer de novo até termos todos os códigos, legais e sociais, já adaptados para a nova realidade.

O que aconteceu com a cantora Taylor Swift, durante o fim de semana no X (ou Twitter), é um alerta. Algumas dezenas de imagens suas, todas produzidas com inteligência artificial (IA), foram vistas dezenas de milhões de vezes. Taylor aparece nelas ou nua, ou com pouca roupa, sempre cercada de muitos homens, que fazem do seu corpo o que querem. No rosto ela demonstra algo próximo do êxtase. As imagens não são de um realismo fotográfico, ninguém as confundiria com algo real. No estilo, são ilustrações hiperrealistas. E são, também, de uma violência desmedida.

Tem muitas camadas de informação e significados para decodificar neste assunto.

(FILES) US singer-songwriter Taylor Swift performs onstage on the first night of her "Eras Tour" at AT&T Stadium in Arlington, Texas, on March 31, 2023. All recorded music licensed to Universal Music Group has been removed from TikTok's music library on February 1, 2024, and all videos containing music licensed by Universal have been muted. (Photo by SUZANNE CORDEIRO / AFP) Foto: SUZANNE CORDEIRO / AFP

O primeiro ponto é crucial entender: é muito fácil construir imagens erotizadas com o rosto de qualquer pessoa. Qualquer pessoa um pouco hábil com as coisas do mundo digital aprende num par de horas. Adolescentes, em muito menos. Há seis meses não era tão fácil quanto é hoje. Daqui a seis meses não tem por que não se tornar coisa ainda mais trivial. O que inteligência artificial generativa cria só passa por ilustração se for escolha de quem está inventando. Se o objetivo for fotorrealismo, é tão possível quanto. Talvez demore um ano ou dois, mas esta facilidade chegará também ao vídeo.

A facilidade não é importante apenas pelo motivo óbvio — o de que qualquer um pode produzir esse tipo de imagem. É também porque, fácil assim, sequer parece criminoso. É só uma coisa na tela que alguém produz com tão pouco esforço que sequer parece grave. Passa fácil por uma curiosidade, uma brincadeira entre amigos. Não dá tempo de pensar nas consequências.

Taylor Swift é a cantora mais famosa do mundo e, por isso, suas imagens foram distribuídas aos milhões. Para uma pessoa comum, o impacto é potencialmente bem mais devastador mesmo que só algumas dezenas de pessoas recebam a imagem. A professora Marry Anne Franks, uma jurista da Universidade de Miami, mapeou o que viu acontecer com já algumas adolescentes vítimas deste tipo de falsificação. A escola se torna um pesadelo — em geral, não dá para saber quem criou as imagens. Um colega? Talvez um professor? A angústia consome, o sentimento é de humilhação quando a menina se torna o assunto da escola. Prestar atenção nas aulas se torna impossível. Se a imagem vaza para além da escola, é comum que adultos comecem a segui-las nas redes sociais. Eles enviam mensagens. É como se um cerco se fechasse, um cerco que sufoca.

É importante trazer rápido este tema para nossas conversas. Para que estejamos, como sociedade, preparados para encará-lo. O que estas imagens produzem é sequestro de identidade. É tirar de suas vítimas qualquer controle sobre como são vistas. O dano reputacional, para mulheres já adultas, pode também ser imenso. Coisa de destruir carreiras, causar depressão. Até o pior.

É importante encarar o tema porque vai acontecer de novo até termos todos os códigos, legais e sociais, já adaptados para a nova realidade.

O que aconteceu com a cantora Taylor Swift, durante o fim de semana no X (ou Twitter), é um alerta. Algumas dezenas de imagens suas, todas produzidas com inteligência artificial (IA), foram vistas dezenas de milhões de vezes. Taylor aparece nelas ou nua, ou com pouca roupa, sempre cercada de muitos homens, que fazem do seu corpo o que querem. No rosto ela demonstra algo próximo do êxtase. As imagens não são de um realismo fotográfico, ninguém as confundiria com algo real. No estilo, são ilustrações hiperrealistas. E são, também, de uma violência desmedida.

Tem muitas camadas de informação e significados para decodificar neste assunto.

(FILES) US singer-songwriter Taylor Swift performs onstage on the first night of her "Eras Tour" at AT&T Stadium in Arlington, Texas, on March 31, 2023. All recorded music licensed to Universal Music Group has been removed from TikTok's music library on February 1, 2024, and all videos containing music licensed by Universal have been muted. (Photo by SUZANNE CORDEIRO / AFP) Foto: SUZANNE CORDEIRO / AFP

O primeiro ponto é crucial entender: é muito fácil construir imagens erotizadas com o rosto de qualquer pessoa. Qualquer pessoa um pouco hábil com as coisas do mundo digital aprende num par de horas. Adolescentes, em muito menos. Há seis meses não era tão fácil quanto é hoje. Daqui a seis meses não tem por que não se tornar coisa ainda mais trivial. O que inteligência artificial generativa cria só passa por ilustração se for escolha de quem está inventando. Se o objetivo for fotorrealismo, é tão possível quanto. Talvez demore um ano ou dois, mas esta facilidade chegará também ao vídeo.

A facilidade não é importante apenas pelo motivo óbvio — o de que qualquer um pode produzir esse tipo de imagem. É também porque, fácil assim, sequer parece criminoso. É só uma coisa na tela que alguém produz com tão pouco esforço que sequer parece grave. Passa fácil por uma curiosidade, uma brincadeira entre amigos. Não dá tempo de pensar nas consequências.

Taylor Swift é a cantora mais famosa do mundo e, por isso, suas imagens foram distribuídas aos milhões. Para uma pessoa comum, o impacto é potencialmente bem mais devastador mesmo que só algumas dezenas de pessoas recebam a imagem. A professora Marry Anne Franks, uma jurista da Universidade de Miami, mapeou o que viu acontecer com já algumas adolescentes vítimas deste tipo de falsificação. A escola se torna um pesadelo — em geral, não dá para saber quem criou as imagens. Um colega? Talvez um professor? A angústia consome, o sentimento é de humilhação quando a menina se torna o assunto da escola. Prestar atenção nas aulas se torna impossível. Se a imagem vaza para além da escola, é comum que adultos comecem a segui-las nas redes sociais. Eles enviam mensagens. É como se um cerco se fechasse, um cerco que sufoca.

É importante trazer rápido este tema para nossas conversas. Para que estejamos, como sociedade, preparados para encará-lo. O que estas imagens produzem é sequestro de identidade. É tirar de suas vítimas qualquer controle sobre como são vistas. O dano reputacional, para mulheres já adultas, pode também ser imenso. Coisa de destruir carreiras, causar depressão. Até o pior.

É importante encarar o tema porque vai acontecer de novo até termos todos os códigos, legais e sociais, já adaptados para a nova realidade.

Opinião por Pedro Doria

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.