Os cantos mais sombrios da web dão uma pista de um futuro terrível com a IA; veja os perigos


Serviços como o 4chan dão sinais antecipados de como a nova tecnologia pode ser usada para projetar ideias extremas

Por Stuart A. Thompson
Atualização:

THE NEW YORK TIMES - Quando a comissão de liberdade condicional do Estado da Louisiana, EUA, se reuniu em outubro para discutir a possível libertação de um assassino condenado, ela chamou uma médica com anos de experiência em saúde mental para falar sobre o preso.

O conselho de liberdade condicional não era o único grupo que estava prestando atenção.

Um grupo de trolls online tirou capturas de tela da médica e editou as imagens com ferramentas de inteligência artificial (IA) para fazê-la parecer nua. Em seguida, eles compartilharam os arquivos manipulados no 4chan, um fórum de mensagens anônimo conhecido por promover o assédio e espalhar conteúdo de ódio e teorias da conspiração.

continua após a publicidade
Fóruns como o 4chan têm adoção rápida de tecnologia para fins sombrios  Foto: cendeced/Adobe Stock

Essa foi uma das várias vezes em que as pessoas no 4chan usaram novas ferramentas de IA, como editores de áudio e geradores de imagens, para divulgar conteúdo racista e ofensivo sobre pessoas que compareceram ao conselho de liberdade condicional, de acordo com Daniel Siegel, um estudante de pós-graduação da Universidade de Columbia que pesquisa como a IA está sendo explorada para fins maliciosos. Siegel registrou a atividade no site por vários meses.

As imagens e o áudio manipulados não se espalharam muito além dos limites do 4chan, disse Siegel. Mas os especialistas que monitoram fóruns de mensagens marginais disseram que os esforços ofereceram um vislumbre de como participantes dos cantos mais sombrios da internet poderiam empregar ferramentas sofisticadas de IA para turbinar o assédio online e as campanhas de ódio nos próximos meses e anos.

continua após a publicidade

Callum Hood, chefe de pesquisa do Center for Countering Digital Hate, disse que sites obscuros como o 4chan - talvez o mais notório de todos - muitas vezes dão sinais de alerta antecipado de como a nova tecnologia seria usada para projetar ideias extremas. Essas plataformas, segundo ele, estão repletas de jovens que são “muito rápidos em adotar novas tecnologias”, como a IA, para “projetar sua ideologia de volta aos espaços convencionais”.

Essas táticas, segundo ele, são frequentemente adotadas por alguns usuários em plataformas mais populares.

Imagens artificiais e pornografia por IA

continua após a publicidade

Ferramentas de IA como DALL-E e Midjourney geram imagens novas a partir de comandos de texto simples. Mas há uma nova onda de geradores de imagens feitos para criar pornografia falsa, incluindo a remoção de roupas de imagens existentes.

“Eles podem usar a IA para criar uma imagem exatamente do que desejam”, disse Hood.

Nos EUA, não há nenhuma lei federal que proíba a criação de imagens falsas de pessoas, o que faz com que grupos como o conselho de liberdade condicional de Louisiana se esforcem para determinar o que pode ser feito.

continua após a publicidade

Illinois, por exemplo, ampliou sua lei que rege a pornografia de vingança para permitir que alvos de pornografia não consensual feita por sistemas de IA processem os criadores ou distribuidores. Califórnia, Virgínia e Nova York também aprovaram leis que proíbem a distribuição ou criação de pornografia gerada por IA sem consentimento.

Clonagem de vozes

No final do ano passado, a ElevenLabs, uma empresa de IA, lançou uma ferramenta capaz de criar uma réplica digital convincente da voz de alguém dizendo qualquer coisa digitada no programa.

continua após a publicidade

Assim que a ferramenta foi lançada, os usuários do 4chan circularam clipes de uma falsa Emma Watson, a atriz britânica, lendo o manifesto de Adolf Hitler, “Mein Kampf”.

Usando o conteúdo das audiências do conselho de liberdade condicional de Louisiana, os usuários do 4chan compartilharam clipes falsos de juízes fazendo comentários ofensivos e racistas sobre os réus. Muitos dos clipes foram gerados pela ferramenta da ElevenLabs, de acordo com Siegel, que usou um identificador de voz de IA desenvolvido também pela ElevenLabs para investigar suas origens.

A ElevenLabs apressou-se em impor limites, inclusive exigindo que os usuários pagassem para ter acesso às ferramentas de clonagem de voz. Mas as mudanças não pareceram desacelerar a disseminação das vozes criadas por IA, segundo especialistas. Dezenas de vídeos usando vozes falsas de celebridades circularam no TikTok e no YouTube, muitos deles compartilhando desinformação política.

continua após a publicidade

Algumas das principais empresas de mídia social, incluindo o TikTok e o YouTube, passaram a exigir rótulos em alguns conteúdos de IA. Em outubro, o presidente Biden emitiu uma ordem executiva solicitando que todas as empresas rotulassem esse tipo de conteúdo e instruiu o Departamento de Comércio a desenvolver padrões para marca d’água e autenticação de conteúdo de I.A.

Ferramentas de IA personalizadas

À medida que a Meta se movimentava para se firmar na corrida da IA, a empresa adotou uma estratégia para liberar seu código de software para os pesquisadores. A abordagem, amplamente chamada de “código aberto”, pode acelerar o desenvolvimento, dando aos acadêmicos e desenvolvedores acesso a mais matéria-prima para encontrar melhorias e desenvolver suas próprias ferramentas.

Quando a empresa liberou o Llama, seu grande modelo de linguagem (LLM), para pesquisadores selecionados em fevereiro, o código vazou rapidamente para o 4chan. As pessoas o utilizaram para diferentes fins: Eles ajustaram o código para diminuir ou eliminar as barreiras de proteção, criando novos chatbots capazes de produzir ideias antissemitas.

O esforço mostrou como as ferramentas de IA de uso gratuito e de código aberto podem ser ajustadas por usuários tecnologicamente experientes.

“Embora o modelo não seja acessível a todos, e alguns tenham tentado contornar o processo de aprovação, acreditamos que a atual estratégia de lançamento nos permite equilibrar responsabilidade e abertura”, disse uma porta-voz da Meta em um e-mail.

Nos meses que se seguiram, modelos de linguagem foram desenvolvidos para ecoar pontos de discussão da extrema direita ou para criar conteúdo mais sexualmente explícito. Os geradores de imagens foram ajustados pelos usuários do 4chan para produzir imagens de nudez ou fornecer memes racistas, ignorando os controles impostos pelas grandes empresas de tecnologia.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

THE NEW YORK TIMES - Quando a comissão de liberdade condicional do Estado da Louisiana, EUA, se reuniu em outubro para discutir a possível libertação de um assassino condenado, ela chamou uma médica com anos de experiência em saúde mental para falar sobre o preso.

O conselho de liberdade condicional não era o único grupo que estava prestando atenção.

Um grupo de trolls online tirou capturas de tela da médica e editou as imagens com ferramentas de inteligência artificial (IA) para fazê-la parecer nua. Em seguida, eles compartilharam os arquivos manipulados no 4chan, um fórum de mensagens anônimo conhecido por promover o assédio e espalhar conteúdo de ódio e teorias da conspiração.

Fóruns como o 4chan têm adoção rápida de tecnologia para fins sombrios  Foto: cendeced/Adobe Stock

Essa foi uma das várias vezes em que as pessoas no 4chan usaram novas ferramentas de IA, como editores de áudio e geradores de imagens, para divulgar conteúdo racista e ofensivo sobre pessoas que compareceram ao conselho de liberdade condicional, de acordo com Daniel Siegel, um estudante de pós-graduação da Universidade de Columbia que pesquisa como a IA está sendo explorada para fins maliciosos. Siegel registrou a atividade no site por vários meses.

As imagens e o áudio manipulados não se espalharam muito além dos limites do 4chan, disse Siegel. Mas os especialistas que monitoram fóruns de mensagens marginais disseram que os esforços ofereceram um vislumbre de como participantes dos cantos mais sombrios da internet poderiam empregar ferramentas sofisticadas de IA para turbinar o assédio online e as campanhas de ódio nos próximos meses e anos.

Callum Hood, chefe de pesquisa do Center for Countering Digital Hate, disse que sites obscuros como o 4chan - talvez o mais notório de todos - muitas vezes dão sinais de alerta antecipado de como a nova tecnologia seria usada para projetar ideias extremas. Essas plataformas, segundo ele, estão repletas de jovens que são “muito rápidos em adotar novas tecnologias”, como a IA, para “projetar sua ideologia de volta aos espaços convencionais”.

Essas táticas, segundo ele, são frequentemente adotadas por alguns usuários em plataformas mais populares.

Imagens artificiais e pornografia por IA

Ferramentas de IA como DALL-E e Midjourney geram imagens novas a partir de comandos de texto simples. Mas há uma nova onda de geradores de imagens feitos para criar pornografia falsa, incluindo a remoção de roupas de imagens existentes.

“Eles podem usar a IA para criar uma imagem exatamente do que desejam”, disse Hood.

Nos EUA, não há nenhuma lei federal que proíba a criação de imagens falsas de pessoas, o que faz com que grupos como o conselho de liberdade condicional de Louisiana se esforcem para determinar o que pode ser feito.

Illinois, por exemplo, ampliou sua lei que rege a pornografia de vingança para permitir que alvos de pornografia não consensual feita por sistemas de IA processem os criadores ou distribuidores. Califórnia, Virgínia e Nova York também aprovaram leis que proíbem a distribuição ou criação de pornografia gerada por IA sem consentimento.

Clonagem de vozes

No final do ano passado, a ElevenLabs, uma empresa de IA, lançou uma ferramenta capaz de criar uma réplica digital convincente da voz de alguém dizendo qualquer coisa digitada no programa.

Assim que a ferramenta foi lançada, os usuários do 4chan circularam clipes de uma falsa Emma Watson, a atriz britânica, lendo o manifesto de Adolf Hitler, “Mein Kampf”.

Usando o conteúdo das audiências do conselho de liberdade condicional de Louisiana, os usuários do 4chan compartilharam clipes falsos de juízes fazendo comentários ofensivos e racistas sobre os réus. Muitos dos clipes foram gerados pela ferramenta da ElevenLabs, de acordo com Siegel, que usou um identificador de voz de IA desenvolvido também pela ElevenLabs para investigar suas origens.

A ElevenLabs apressou-se em impor limites, inclusive exigindo que os usuários pagassem para ter acesso às ferramentas de clonagem de voz. Mas as mudanças não pareceram desacelerar a disseminação das vozes criadas por IA, segundo especialistas. Dezenas de vídeos usando vozes falsas de celebridades circularam no TikTok e no YouTube, muitos deles compartilhando desinformação política.

Algumas das principais empresas de mídia social, incluindo o TikTok e o YouTube, passaram a exigir rótulos em alguns conteúdos de IA. Em outubro, o presidente Biden emitiu uma ordem executiva solicitando que todas as empresas rotulassem esse tipo de conteúdo e instruiu o Departamento de Comércio a desenvolver padrões para marca d’água e autenticação de conteúdo de I.A.

Ferramentas de IA personalizadas

À medida que a Meta se movimentava para se firmar na corrida da IA, a empresa adotou uma estratégia para liberar seu código de software para os pesquisadores. A abordagem, amplamente chamada de “código aberto”, pode acelerar o desenvolvimento, dando aos acadêmicos e desenvolvedores acesso a mais matéria-prima para encontrar melhorias e desenvolver suas próprias ferramentas.

Quando a empresa liberou o Llama, seu grande modelo de linguagem (LLM), para pesquisadores selecionados em fevereiro, o código vazou rapidamente para o 4chan. As pessoas o utilizaram para diferentes fins: Eles ajustaram o código para diminuir ou eliminar as barreiras de proteção, criando novos chatbots capazes de produzir ideias antissemitas.

O esforço mostrou como as ferramentas de IA de uso gratuito e de código aberto podem ser ajustadas por usuários tecnologicamente experientes.

“Embora o modelo não seja acessível a todos, e alguns tenham tentado contornar o processo de aprovação, acreditamos que a atual estratégia de lançamento nos permite equilibrar responsabilidade e abertura”, disse uma porta-voz da Meta em um e-mail.

Nos meses que se seguiram, modelos de linguagem foram desenvolvidos para ecoar pontos de discussão da extrema direita ou para criar conteúdo mais sexualmente explícito. Os geradores de imagens foram ajustados pelos usuários do 4chan para produzir imagens de nudez ou fornecer memes racistas, ignorando os controles impostos pelas grandes empresas de tecnologia.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

THE NEW YORK TIMES - Quando a comissão de liberdade condicional do Estado da Louisiana, EUA, se reuniu em outubro para discutir a possível libertação de um assassino condenado, ela chamou uma médica com anos de experiência em saúde mental para falar sobre o preso.

O conselho de liberdade condicional não era o único grupo que estava prestando atenção.

Um grupo de trolls online tirou capturas de tela da médica e editou as imagens com ferramentas de inteligência artificial (IA) para fazê-la parecer nua. Em seguida, eles compartilharam os arquivos manipulados no 4chan, um fórum de mensagens anônimo conhecido por promover o assédio e espalhar conteúdo de ódio e teorias da conspiração.

Fóruns como o 4chan têm adoção rápida de tecnologia para fins sombrios  Foto: cendeced/Adobe Stock

Essa foi uma das várias vezes em que as pessoas no 4chan usaram novas ferramentas de IA, como editores de áudio e geradores de imagens, para divulgar conteúdo racista e ofensivo sobre pessoas que compareceram ao conselho de liberdade condicional, de acordo com Daniel Siegel, um estudante de pós-graduação da Universidade de Columbia que pesquisa como a IA está sendo explorada para fins maliciosos. Siegel registrou a atividade no site por vários meses.

As imagens e o áudio manipulados não se espalharam muito além dos limites do 4chan, disse Siegel. Mas os especialistas que monitoram fóruns de mensagens marginais disseram que os esforços ofereceram um vislumbre de como participantes dos cantos mais sombrios da internet poderiam empregar ferramentas sofisticadas de IA para turbinar o assédio online e as campanhas de ódio nos próximos meses e anos.

Callum Hood, chefe de pesquisa do Center for Countering Digital Hate, disse que sites obscuros como o 4chan - talvez o mais notório de todos - muitas vezes dão sinais de alerta antecipado de como a nova tecnologia seria usada para projetar ideias extremas. Essas plataformas, segundo ele, estão repletas de jovens que são “muito rápidos em adotar novas tecnologias”, como a IA, para “projetar sua ideologia de volta aos espaços convencionais”.

Essas táticas, segundo ele, são frequentemente adotadas por alguns usuários em plataformas mais populares.

Imagens artificiais e pornografia por IA

Ferramentas de IA como DALL-E e Midjourney geram imagens novas a partir de comandos de texto simples. Mas há uma nova onda de geradores de imagens feitos para criar pornografia falsa, incluindo a remoção de roupas de imagens existentes.

“Eles podem usar a IA para criar uma imagem exatamente do que desejam”, disse Hood.

Nos EUA, não há nenhuma lei federal que proíba a criação de imagens falsas de pessoas, o que faz com que grupos como o conselho de liberdade condicional de Louisiana se esforcem para determinar o que pode ser feito.

Illinois, por exemplo, ampliou sua lei que rege a pornografia de vingança para permitir que alvos de pornografia não consensual feita por sistemas de IA processem os criadores ou distribuidores. Califórnia, Virgínia e Nova York também aprovaram leis que proíbem a distribuição ou criação de pornografia gerada por IA sem consentimento.

Clonagem de vozes

No final do ano passado, a ElevenLabs, uma empresa de IA, lançou uma ferramenta capaz de criar uma réplica digital convincente da voz de alguém dizendo qualquer coisa digitada no programa.

Assim que a ferramenta foi lançada, os usuários do 4chan circularam clipes de uma falsa Emma Watson, a atriz britânica, lendo o manifesto de Adolf Hitler, “Mein Kampf”.

Usando o conteúdo das audiências do conselho de liberdade condicional de Louisiana, os usuários do 4chan compartilharam clipes falsos de juízes fazendo comentários ofensivos e racistas sobre os réus. Muitos dos clipes foram gerados pela ferramenta da ElevenLabs, de acordo com Siegel, que usou um identificador de voz de IA desenvolvido também pela ElevenLabs para investigar suas origens.

A ElevenLabs apressou-se em impor limites, inclusive exigindo que os usuários pagassem para ter acesso às ferramentas de clonagem de voz. Mas as mudanças não pareceram desacelerar a disseminação das vozes criadas por IA, segundo especialistas. Dezenas de vídeos usando vozes falsas de celebridades circularam no TikTok e no YouTube, muitos deles compartilhando desinformação política.

Algumas das principais empresas de mídia social, incluindo o TikTok e o YouTube, passaram a exigir rótulos em alguns conteúdos de IA. Em outubro, o presidente Biden emitiu uma ordem executiva solicitando que todas as empresas rotulassem esse tipo de conteúdo e instruiu o Departamento de Comércio a desenvolver padrões para marca d’água e autenticação de conteúdo de I.A.

Ferramentas de IA personalizadas

À medida que a Meta se movimentava para se firmar na corrida da IA, a empresa adotou uma estratégia para liberar seu código de software para os pesquisadores. A abordagem, amplamente chamada de “código aberto”, pode acelerar o desenvolvimento, dando aos acadêmicos e desenvolvedores acesso a mais matéria-prima para encontrar melhorias e desenvolver suas próprias ferramentas.

Quando a empresa liberou o Llama, seu grande modelo de linguagem (LLM), para pesquisadores selecionados em fevereiro, o código vazou rapidamente para o 4chan. As pessoas o utilizaram para diferentes fins: Eles ajustaram o código para diminuir ou eliminar as barreiras de proteção, criando novos chatbots capazes de produzir ideias antissemitas.

O esforço mostrou como as ferramentas de IA de uso gratuito e de código aberto podem ser ajustadas por usuários tecnologicamente experientes.

“Embora o modelo não seja acessível a todos, e alguns tenham tentado contornar o processo de aprovação, acreditamos que a atual estratégia de lançamento nos permite equilibrar responsabilidade e abertura”, disse uma porta-voz da Meta em um e-mail.

Nos meses que se seguiram, modelos de linguagem foram desenvolvidos para ecoar pontos de discussão da extrema direita ou para criar conteúdo mais sexualmente explícito. Os geradores de imagens foram ajustados pelos usuários do 4chan para produzir imagens de nudez ou fornecer memes racistas, ignorando os controles impostos pelas grandes empresas de tecnologia.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

THE NEW YORK TIMES - Quando a comissão de liberdade condicional do Estado da Louisiana, EUA, se reuniu em outubro para discutir a possível libertação de um assassino condenado, ela chamou uma médica com anos de experiência em saúde mental para falar sobre o preso.

O conselho de liberdade condicional não era o único grupo que estava prestando atenção.

Um grupo de trolls online tirou capturas de tela da médica e editou as imagens com ferramentas de inteligência artificial (IA) para fazê-la parecer nua. Em seguida, eles compartilharam os arquivos manipulados no 4chan, um fórum de mensagens anônimo conhecido por promover o assédio e espalhar conteúdo de ódio e teorias da conspiração.

Fóruns como o 4chan têm adoção rápida de tecnologia para fins sombrios  Foto: cendeced/Adobe Stock

Essa foi uma das várias vezes em que as pessoas no 4chan usaram novas ferramentas de IA, como editores de áudio e geradores de imagens, para divulgar conteúdo racista e ofensivo sobre pessoas que compareceram ao conselho de liberdade condicional, de acordo com Daniel Siegel, um estudante de pós-graduação da Universidade de Columbia que pesquisa como a IA está sendo explorada para fins maliciosos. Siegel registrou a atividade no site por vários meses.

As imagens e o áudio manipulados não se espalharam muito além dos limites do 4chan, disse Siegel. Mas os especialistas que monitoram fóruns de mensagens marginais disseram que os esforços ofereceram um vislumbre de como participantes dos cantos mais sombrios da internet poderiam empregar ferramentas sofisticadas de IA para turbinar o assédio online e as campanhas de ódio nos próximos meses e anos.

Callum Hood, chefe de pesquisa do Center for Countering Digital Hate, disse que sites obscuros como o 4chan - talvez o mais notório de todos - muitas vezes dão sinais de alerta antecipado de como a nova tecnologia seria usada para projetar ideias extremas. Essas plataformas, segundo ele, estão repletas de jovens que são “muito rápidos em adotar novas tecnologias”, como a IA, para “projetar sua ideologia de volta aos espaços convencionais”.

Essas táticas, segundo ele, são frequentemente adotadas por alguns usuários em plataformas mais populares.

Imagens artificiais e pornografia por IA

Ferramentas de IA como DALL-E e Midjourney geram imagens novas a partir de comandos de texto simples. Mas há uma nova onda de geradores de imagens feitos para criar pornografia falsa, incluindo a remoção de roupas de imagens existentes.

“Eles podem usar a IA para criar uma imagem exatamente do que desejam”, disse Hood.

Nos EUA, não há nenhuma lei federal que proíba a criação de imagens falsas de pessoas, o que faz com que grupos como o conselho de liberdade condicional de Louisiana se esforcem para determinar o que pode ser feito.

Illinois, por exemplo, ampliou sua lei que rege a pornografia de vingança para permitir que alvos de pornografia não consensual feita por sistemas de IA processem os criadores ou distribuidores. Califórnia, Virgínia e Nova York também aprovaram leis que proíbem a distribuição ou criação de pornografia gerada por IA sem consentimento.

Clonagem de vozes

No final do ano passado, a ElevenLabs, uma empresa de IA, lançou uma ferramenta capaz de criar uma réplica digital convincente da voz de alguém dizendo qualquer coisa digitada no programa.

Assim que a ferramenta foi lançada, os usuários do 4chan circularam clipes de uma falsa Emma Watson, a atriz britânica, lendo o manifesto de Adolf Hitler, “Mein Kampf”.

Usando o conteúdo das audiências do conselho de liberdade condicional de Louisiana, os usuários do 4chan compartilharam clipes falsos de juízes fazendo comentários ofensivos e racistas sobre os réus. Muitos dos clipes foram gerados pela ferramenta da ElevenLabs, de acordo com Siegel, que usou um identificador de voz de IA desenvolvido também pela ElevenLabs para investigar suas origens.

A ElevenLabs apressou-se em impor limites, inclusive exigindo que os usuários pagassem para ter acesso às ferramentas de clonagem de voz. Mas as mudanças não pareceram desacelerar a disseminação das vozes criadas por IA, segundo especialistas. Dezenas de vídeos usando vozes falsas de celebridades circularam no TikTok e no YouTube, muitos deles compartilhando desinformação política.

Algumas das principais empresas de mídia social, incluindo o TikTok e o YouTube, passaram a exigir rótulos em alguns conteúdos de IA. Em outubro, o presidente Biden emitiu uma ordem executiva solicitando que todas as empresas rotulassem esse tipo de conteúdo e instruiu o Departamento de Comércio a desenvolver padrões para marca d’água e autenticação de conteúdo de I.A.

Ferramentas de IA personalizadas

À medida que a Meta se movimentava para se firmar na corrida da IA, a empresa adotou uma estratégia para liberar seu código de software para os pesquisadores. A abordagem, amplamente chamada de “código aberto”, pode acelerar o desenvolvimento, dando aos acadêmicos e desenvolvedores acesso a mais matéria-prima para encontrar melhorias e desenvolver suas próprias ferramentas.

Quando a empresa liberou o Llama, seu grande modelo de linguagem (LLM), para pesquisadores selecionados em fevereiro, o código vazou rapidamente para o 4chan. As pessoas o utilizaram para diferentes fins: Eles ajustaram o código para diminuir ou eliminar as barreiras de proteção, criando novos chatbots capazes de produzir ideias antissemitas.

O esforço mostrou como as ferramentas de IA de uso gratuito e de código aberto podem ser ajustadas por usuários tecnologicamente experientes.

“Embora o modelo não seja acessível a todos, e alguns tenham tentado contornar o processo de aprovação, acreditamos que a atual estratégia de lançamento nos permite equilibrar responsabilidade e abertura”, disse uma porta-voz da Meta em um e-mail.

Nos meses que se seguiram, modelos de linguagem foram desenvolvidos para ecoar pontos de discussão da extrema direita ou para criar conteúdo mais sexualmente explícito. Os geradores de imagens foram ajustados pelos usuários do 4chan para produzir imagens de nudez ou fornecer memes racistas, ignorando os controles impostos pelas grandes empresas de tecnologia.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.