Meta identificará imagens geradas por inteligência artificial em suas redes sociais


Aumento da IA generativa suscita temores de que as pessoas usem essas ferramentas para semear o caos político, especialmente por meio da desinformação

Por Redação

A gigante norte-americano Meta anunciou na terça-feira, 5, que identificará nos próximos meses qualquer imagem gerada por inteligência artificial (IA) que apareça em suas redes sociais Facebook, Instagram e Threads.

“Nos próximos meses, rotularemos as imagens que os usuários postarem no Facebook, Instagram e Threads, sempre que pudermos detectar os indicadores, de acordo com as normas da indústria, que revelem que são geradas por IA”, anunciou Nick Clegg, responsável pelos assuntos internacionais da Meta, em um blog.

A empresa já identifica as imagens geradas com a ajuda de sua própria ferramenta, Meta IA, que foi lançada em dezembro.

continua após a publicidade

Daqui para frente, “queremos ser capazes de fazer o mesmo com conteúdos criados com ferramentas de outras empresas” como Google, OpenAI, Microsoft, Adobe, Midjourney ou Shutterstock, acrescentou o responsável da Meta.

“Estamos construindo essa ferramenta neste momento e, nos próximos meses, começaremos a aplicar rótulos em todos os idiomas compatíveis com cada aplicativo”, enfatizou o líder.

Meta anunciou que identificará qualquer imagem gerada por inteligência artificial que apareça em suas redes sociais Facebook, Instagram e Threads  Foto: AP Photo/Michael Dwyer, File
continua após a publicidade

Temores

O aumento da IA generativa suscita temores de que as pessoas usem essas ferramentas para semear o caos político, especialmente por meio da desinformação. Quase metade da população mundial celebrará eleições este ano.

Além do risco político, o desenvolvimento de programas de IA generativa poderia produzir um fluxo incontrolável de conteúdos degradantes, segundo numerosos ativistas e reguladores, como imagens falsas pornográficas (“deepfakes”) de mulheres famosas, fenômeno que também afeta muitas pessoas anônimas.

continua após a publicidade

Por exemplo, uma imagem falsa da estrela norte-americana Taylor Swift foi vista 47 milhões de vezes na rede social X no final de janeiro antes de ser removida. De acordo com a imprensa norte-americana, a publicação permaneceu online na plataforma por cerca de 17 horas.

Embora Nick Clegg admita que esse rótulo em grande escala, por meio de marcadores invisíveis, “não eliminará” totalmente o risco de produção de imagens falsas, “certamente minimizará” sua proliferação “dentro dos limites do que a tecnologia permite atualmente”.

continua após a publicidade

“Não é perfeito, a tecnologia ainda não está completamente desenvolvida, mas de todas as plataformas é a tentativa mais avançada até agora para fornecer transparência significativa a bilhões de pessoas em todo o mundo”, disse Clegg à AFP.

“Espero sinceramente que, ao fazer isso e liderar o caminho, incentivemos o restante da indústria a trabalhar juntos e tentar desenvolver os padrões técnicos comuns de que precisamos”, acrescentou o líder da Meta, que está disposto a “compartilhar” sua tecnologia aberta “o mais amplamente possível”.

A empresa californiana OpenAI, criadora do ChatGPT, também anunciou no meio de janeiro o lançamento de ferramentas para combater a desinformação e afirmou sua vontade de não permitir o uso de suas ferramentas tecnológicas para fins políticos.

continua após a publicidade

“Queremos garantir que nossa tecnologia não seja usada de maneira que prejudique” o processo democrático, explicou a OpenAI, que observou que seu gerador de imagens DALL-E 3 contém “salvaguardas” para evitar que os usuários gerem imagens de pessoas reais, especialmente candidatos./AFP

A gigante norte-americano Meta anunciou na terça-feira, 5, que identificará nos próximos meses qualquer imagem gerada por inteligência artificial (IA) que apareça em suas redes sociais Facebook, Instagram e Threads.

“Nos próximos meses, rotularemos as imagens que os usuários postarem no Facebook, Instagram e Threads, sempre que pudermos detectar os indicadores, de acordo com as normas da indústria, que revelem que são geradas por IA”, anunciou Nick Clegg, responsável pelos assuntos internacionais da Meta, em um blog.

A empresa já identifica as imagens geradas com a ajuda de sua própria ferramenta, Meta IA, que foi lançada em dezembro.

Daqui para frente, “queremos ser capazes de fazer o mesmo com conteúdos criados com ferramentas de outras empresas” como Google, OpenAI, Microsoft, Adobe, Midjourney ou Shutterstock, acrescentou o responsável da Meta.

“Estamos construindo essa ferramenta neste momento e, nos próximos meses, começaremos a aplicar rótulos em todos os idiomas compatíveis com cada aplicativo”, enfatizou o líder.

Meta anunciou que identificará qualquer imagem gerada por inteligência artificial que apareça em suas redes sociais Facebook, Instagram e Threads  Foto: AP Photo/Michael Dwyer, File

Temores

O aumento da IA generativa suscita temores de que as pessoas usem essas ferramentas para semear o caos político, especialmente por meio da desinformação. Quase metade da população mundial celebrará eleições este ano.

Além do risco político, o desenvolvimento de programas de IA generativa poderia produzir um fluxo incontrolável de conteúdos degradantes, segundo numerosos ativistas e reguladores, como imagens falsas pornográficas (“deepfakes”) de mulheres famosas, fenômeno que também afeta muitas pessoas anônimas.

Por exemplo, uma imagem falsa da estrela norte-americana Taylor Swift foi vista 47 milhões de vezes na rede social X no final de janeiro antes de ser removida. De acordo com a imprensa norte-americana, a publicação permaneceu online na plataforma por cerca de 17 horas.

Embora Nick Clegg admita que esse rótulo em grande escala, por meio de marcadores invisíveis, “não eliminará” totalmente o risco de produção de imagens falsas, “certamente minimizará” sua proliferação “dentro dos limites do que a tecnologia permite atualmente”.

“Não é perfeito, a tecnologia ainda não está completamente desenvolvida, mas de todas as plataformas é a tentativa mais avançada até agora para fornecer transparência significativa a bilhões de pessoas em todo o mundo”, disse Clegg à AFP.

“Espero sinceramente que, ao fazer isso e liderar o caminho, incentivemos o restante da indústria a trabalhar juntos e tentar desenvolver os padrões técnicos comuns de que precisamos”, acrescentou o líder da Meta, que está disposto a “compartilhar” sua tecnologia aberta “o mais amplamente possível”.

A empresa californiana OpenAI, criadora do ChatGPT, também anunciou no meio de janeiro o lançamento de ferramentas para combater a desinformação e afirmou sua vontade de não permitir o uso de suas ferramentas tecnológicas para fins políticos.

“Queremos garantir que nossa tecnologia não seja usada de maneira que prejudique” o processo democrático, explicou a OpenAI, que observou que seu gerador de imagens DALL-E 3 contém “salvaguardas” para evitar que os usuários gerem imagens de pessoas reais, especialmente candidatos./AFP

A gigante norte-americano Meta anunciou na terça-feira, 5, que identificará nos próximos meses qualquer imagem gerada por inteligência artificial (IA) que apareça em suas redes sociais Facebook, Instagram e Threads.

“Nos próximos meses, rotularemos as imagens que os usuários postarem no Facebook, Instagram e Threads, sempre que pudermos detectar os indicadores, de acordo com as normas da indústria, que revelem que são geradas por IA”, anunciou Nick Clegg, responsável pelos assuntos internacionais da Meta, em um blog.

A empresa já identifica as imagens geradas com a ajuda de sua própria ferramenta, Meta IA, que foi lançada em dezembro.

Daqui para frente, “queremos ser capazes de fazer o mesmo com conteúdos criados com ferramentas de outras empresas” como Google, OpenAI, Microsoft, Adobe, Midjourney ou Shutterstock, acrescentou o responsável da Meta.

“Estamos construindo essa ferramenta neste momento e, nos próximos meses, começaremos a aplicar rótulos em todos os idiomas compatíveis com cada aplicativo”, enfatizou o líder.

Meta anunciou que identificará qualquer imagem gerada por inteligência artificial que apareça em suas redes sociais Facebook, Instagram e Threads  Foto: AP Photo/Michael Dwyer, File

Temores

O aumento da IA generativa suscita temores de que as pessoas usem essas ferramentas para semear o caos político, especialmente por meio da desinformação. Quase metade da população mundial celebrará eleições este ano.

Além do risco político, o desenvolvimento de programas de IA generativa poderia produzir um fluxo incontrolável de conteúdos degradantes, segundo numerosos ativistas e reguladores, como imagens falsas pornográficas (“deepfakes”) de mulheres famosas, fenômeno que também afeta muitas pessoas anônimas.

Por exemplo, uma imagem falsa da estrela norte-americana Taylor Swift foi vista 47 milhões de vezes na rede social X no final de janeiro antes de ser removida. De acordo com a imprensa norte-americana, a publicação permaneceu online na plataforma por cerca de 17 horas.

Embora Nick Clegg admita que esse rótulo em grande escala, por meio de marcadores invisíveis, “não eliminará” totalmente o risco de produção de imagens falsas, “certamente minimizará” sua proliferação “dentro dos limites do que a tecnologia permite atualmente”.

“Não é perfeito, a tecnologia ainda não está completamente desenvolvida, mas de todas as plataformas é a tentativa mais avançada até agora para fornecer transparência significativa a bilhões de pessoas em todo o mundo”, disse Clegg à AFP.

“Espero sinceramente que, ao fazer isso e liderar o caminho, incentivemos o restante da indústria a trabalhar juntos e tentar desenvolver os padrões técnicos comuns de que precisamos”, acrescentou o líder da Meta, que está disposto a “compartilhar” sua tecnologia aberta “o mais amplamente possível”.

A empresa californiana OpenAI, criadora do ChatGPT, também anunciou no meio de janeiro o lançamento de ferramentas para combater a desinformação e afirmou sua vontade de não permitir o uso de suas ferramentas tecnológicas para fins políticos.

“Queremos garantir que nossa tecnologia não seja usada de maneira que prejudique” o processo democrático, explicou a OpenAI, que observou que seu gerador de imagens DALL-E 3 contém “salvaguardas” para evitar que os usuários gerem imagens de pessoas reais, especialmente candidatos./AFP

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.