OpenAI proíbe uso político de suas IAs, mas medida é pouco efetiva; entenda


Companhia lança novos termos de uso, mas isso não deve ser suficiente para travar avanço da tecnologia para uso eleitoral

Por Gerrit De Vynck

THE WASHINGTON POST - Nesta segunda, 15, a OpenAI apresentou seus planos e políticas para tentar impedir que as pessoas mal-intencionadas usem sua tecnologia para disseminar desinformação e mentiras durante eleições - bilhões de pessoas em algumas das maiores democracias do mundo vão às urnas este ano.

A empresa, que produz o popular chatbot ChatGPT e o gerador de imagens DALL-E e que fornece tecnologia de IA para muitas empresas, incluindo a Microsoft, disse em seu blog que não permitiria que as pessoas usassem sua tecnologia para fins políticos, incluindo espalhar desinformação sobre o processo de votação e o estímulo a supressão de votos (quando determinados públicos são encorajados a não votarem).

OpenAI apresentou termos para uso eleitoral de suas IAs Foto: Dado Ruvic/Reuters
continua após a publicidade

A OpenAI disse que também começará a colocar marcas d’água - uma ferramenta para detectar fotografias criadas por IA - em imagens feitas com seu gerador de imagens DALL-E “no início deste ano”. “Trabalhamos para antecipar e evitar abusos relevantes - como ‘deep fakes’, operações de influência ou chatbots que se fazem passar por candidatos”, diz a OpenAI na postagem do blog.

Partidos políticos, agentes estatais e empreendedores oportunistas da internet usam a mídias sociais há anos para divulgar informações falsas e influenciar eleitores. Mas ativistas, políticos e pesquisadores de IA expressaram preocupação com o fato de que os chatbots e os geradores de imagens poderiam aumentar a sofisticação e o volume da desinformação política.

As medidas da OpenAI vêm depois que outras empresas de tecnologia também atualizaram suas políticas eleitorais para lidar com o boom da IA. Em dezembro, o Google disse que restringiria o tipo de respostas que suas ferramentas de IA dariam a perguntas relacionadas a eleições. Também disse que exigiria que as campanhas políticas que comprassem anúncios do Google divulgassem quando usassem IA. A Meta, controladora do Facebook, também exige que os anunciantes políticos divulguem se usaram IA.

continua após a publicidade

Mas as empresas têm tido dificuldades para administrar suas próprias políticas de desinformação eleitoral. Embora a OpenAI proíba o uso de seus produtos para criar materiais de campanha direcionados, um relatório de agosto do Post mostrou que essas políticas não foram aplicadas. Agora, novamente, a OpenAI não descreve como irá garantir que suas políticas sejam cumpridas.

Já houve casos de alto nível de mentiras relacionadas a eleições geradas por ferramentas de IA. Em outubro, o The Washington Post informou que o alto-falante doméstico Alexa da Amazon estava declarando falsamente que a eleição presidencial americana de 2020 havia sido roubada e estava repleta de fraudes eleitorais.

A senadora Amy Klobuchar expressou preocupação com o fato de o ChatGPT poder interferir no processo eleitoral, dizendo às pessoas para irem a um endereço falso quando perguntadas sobre o que fazer se as filas estiverem muito longas em um local de votação.

continua após a publicidade

Se um país quisesse influenciar o processo político dos EUA, ele poderia, por exemplo, criar chatbots com aparência humana que promovessem narrativas divisivas nos espaços de mídia social americanos, em vez de ter que pagar agentes humanos para fazer isso. Os chatbots também poderiam criar mensagens personalizadas para cada eleitor, o que poderia aumentar sua eficácia a baixo custo.

Na postagem, a OpenAI disse que estava trabalhando para entender a eficácia de suas ferramentas para a “persuasão personalizada”. A empresa abriu recentemente sua “GPTStore”, que permite a qualquer pessoa treinar facilmente um chatbot usando seus próprios dados.

As ferramentas de IA generativa não têm uma compreensão do que é verdadeiro ou falso. Em vez disso, elas preveem qual seria uma boa resposta para uma pergunta com base na análise de bilhões de frases extraídas da internet. Muitas vezes, eles produzem textos semelhantes aos humanos, repletos de informações úteis. Mas também inventam regularmente informações falsas e as fazem passar por fatos.

continua após a publicidade

Imagens criadas por IA já apareceram em toda a web, inclusive na pesquisa do Google, sendo apresentadas como imagens reais. Elas também começaram a aparecer nas campanhas eleitorais dos EUA. No ano passado, um anúncio lançado pela campanha do governador da Flórida, Ron DeSantis, usou o que pareciam ser imagens geradas por IA de Donald Trump abraçando o ex-conselheiro de coronavírus da Casa Branca, Anthony S. Fauci. Não está claro qual gerador de imagens foi usado para criar as imagens.

Outras empresas, incluindo o Google e a Adobe, fabricante do Photoshop, disseram que também usarão marcas d’água em imagens geradas por suas ferramentas de IA. Mas a tecnologia não é uma cura mágica para a disseminação de imagens falsas de IA. As marcas d’água visíveis podem ser facilmente cortadas ou editadas. As marcas d’água criptográficas incorporadas, que não são visíveis ao olho humano, podem ser distorcidas simplesmente virando a imagem ou mudando sua cor.

As empresas de tecnologia dizem que estão trabalhando para melhorar esse problema e torná-las à prova de adulteração, mas, por enquanto, nenhuma delas parece ter descoberto como fazer isso de forma eficaz.

continua após a publicidade

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

THE WASHINGTON POST - Nesta segunda, 15, a OpenAI apresentou seus planos e políticas para tentar impedir que as pessoas mal-intencionadas usem sua tecnologia para disseminar desinformação e mentiras durante eleições - bilhões de pessoas em algumas das maiores democracias do mundo vão às urnas este ano.

A empresa, que produz o popular chatbot ChatGPT e o gerador de imagens DALL-E e que fornece tecnologia de IA para muitas empresas, incluindo a Microsoft, disse em seu blog que não permitiria que as pessoas usassem sua tecnologia para fins políticos, incluindo espalhar desinformação sobre o processo de votação e o estímulo a supressão de votos (quando determinados públicos são encorajados a não votarem).

OpenAI apresentou termos para uso eleitoral de suas IAs Foto: Dado Ruvic/Reuters

A OpenAI disse que também começará a colocar marcas d’água - uma ferramenta para detectar fotografias criadas por IA - em imagens feitas com seu gerador de imagens DALL-E “no início deste ano”. “Trabalhamos para antecipar e evitar abusos relevantes - como ‘deep fakes’, operações de influência ou chatbots que se fazem passar por candidatos”, diz a OpenAI na postagem do blog.

Partidos políticos, agentes estatais e empreendedores oportunistas da internet usam a mídias sociais há anos para divulgar informações falsas e influenciar eleitores. Mas ativistas, políticos e pesquisadores de IA expressaram preocupação com o fato de que os chatbots e os geradores de imagens poderiam aumentar a sofisticação e o volume da desinformação política.

As medidas da OpenAI vêm depois que outras empresas de tecnologia também atualizaram suas políticas eleitorais para lidar com o boom da IA. Em dezembro, o Google disse que restringiria o tipo de respostas que suas ferramentas de IA dariam a perguntas relacionadas a eleições. Também disse que exigiria que as campanhas políticas que comprassem anúncios do Google divulgassem quando usassem IA. A Meta, controladora do Facebook, também exige que os anunciantes políticos divulguem se usaram IA.

Mas as empresas têm tido dificuldades para administrar suas próprias políticas de desinformação eleitoral. Embora a OpenAI proíba o uso de seus produtos para criar materiais de campanha direcionados, um relatório de agosto do Post mostrou que essas políticas não foram aplicadas. Agora, novamente, a OpenAI não descreve como irá garantir que suas políticas sejam cumpridas.

Já houve casos de alto nível de mentiras relacionadas a eleições geradas por ferramentas de IA. Em outubro, o The Washington Post informou que o alto-falante doméstico Alexa da Amazon estava declarando falsamente que a eleição presidencial americana de 2020 havia sido roubada e estava repleta de fraudes eleitorais.

A senadora Amy Klobuchar expressou preocupação com o fato de o ChatGPT poder interferir no processo eleitoral, dizendo às pessoas para irem a um endereço falso quando perguntadas sobre o que fazer se as filas estiverem muito longas em um local de votação.

Se um país quisesse influenciar o processo político dos EUA, ele poderia, por exemplo, criar chatbots com aparência humana que promovessem narrativas divisivas nos espaços de mídia social americanos, em vez de ter que pagar agentes humanos para fazer isso. Os chatbots também poderiam criar mensagens personalizadas para cada eleitor, o que poderia aumentar sua eficácia a baixo custo.

Na postagem, a OpenAI disse que estava trabalhando para entender a eficácia de suas ferramentas para a “persuasão personalizada”. A empresa abriu recentemente sua “GPTStore”, que permite a qualquer pessoa treinar facilmente um chatbot usando seus próprios dados.

As ferramentas de IA generativa não têm uma compreensão do que é verdadeiro ou falso. Em vez disso, elas preveem qual seria uma boa resposta para uma pergunta com base na análise de bilhões de frases extraídas da internet. Muitas vezes, eles produzem textos semelhantes aos humanos, repletos de informações úteis. Mas também inventam regularmente informações falsas e as fazem passar por fatos.

Imagens criadas por IA já apareceram em toda a web, inclusive na pesquisa do Google, sendo apresentadas como imagens reais. Elas também começaram a aparecer nas campanhas eleitorais dos EUA. No ano passado, um anúncio lançado pela campanha do governador da Flórida, Ron DeSantis, usou o que pareciam ser imagens geradas por IA de Donald Trump abraçando o ex-conselheiro de coronavírus da Casa Branca, Anthony S. Fauci. Não está claro qual gerador de imagens foi usado para criar as imagens.

Outras empresas, incluindo o Google e a Adobe, fabricante do Photoshop, disseram que também usarão marcas d’água em imagens geradas por suas ferramentas de IA. Mas a tecnologia não é uma cura mágica para a disseminação de imagens falsas de IA. As marcas d’água visíveis podem ser facilmente cortadas ou editadas. As marcas d’água criptográficas incorporadas, que não são visíveis ao olho humano, podem ser distorcidas simplesmente virando a imagem ou mudando sua cor.

As empresas de tecnologia dizem que estão trabalhando para melhorar esse problema e torná-las à prova de adulteração, mas, por enquanto, nenhuma delas parece ter descoberto como fazer isso de forma eficaz.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

THE WASHINGTON POST - Nesta segunda, 15, a OpenAI apresentou seus planos e políticas para tentar impedir que as pessoas mal-intencionadas usem sua tecnologia para disseminar desinformação e mentiras durante eleições - bilhões de pessoas em algumas das maiores democracias do mundo vão às urnas este ano.

A empresa, que produz o popular chatbot ChatGPT e o gerador de imagens DALL-E e que fornece tecnologia de IA para muitas empresas, incluindo a Microsoft, disse em seu blog que não permitiria que as pessoas usassem sua tecnologia para fins políticos, incluindo espalhar desinformação sobre o processo de votação e o estímulo a supressão de votos (quando determinados públicos são encorajados a não votarem).

OpenAI apresentou termos para uso eleitoral de suas IAs Foto: Dado Ruvic/Reuters

A OpenAI disse que também começará a colocar marcas d’água - uma ferramenta para detectar fotografias criadas por IA - em imagens feitas com seu gerador de imagens DALL-E “no início deste ano”. “Trabalhamos para antecipar e evitar abusos relevantes - como ‘deep fakes’, operações de influência ou chatbots que se fazem passar por candidatos”, diz a OpenAI na postagem do blog.

Partidos políticos, agentes estatais e empreendedores oportunistas da internet usam a mídias sociais há anos para divulgar informações falsas e influenciar eleitores. Mas ativistas, políticos e pesquisadores de IA expressaram preocupação com o fato de que os chatbots e os geradores de imagens poderiam aumentar a sofisticação e o volume da desinformação política.

As medidas da OpenAI vêm depois que outras empresas de tecnologia também atualizaram suas políticas eleitorais para lidar com o boom da IA. Em dezembro, o Google disse que restringiria o tipo de respostas que suas ferramentas de IA dariam a perguntas relacionadas a eleições. Também disse que exigiria que as campanhas políticas que comprassem anúncios do Google divulgassem quando usassem IA. A Meta, controladora do Facebook, também exige que os anunciantes políticos divulguem se usaram IA.

Mas as empresas têm tido dificuldades para administrar suas próprias políticas de desinformação eleitoral. Embora a OpenAI proíba o uso de seus produtos para criar materiais de campanha direcionados, um relatório de agosto do Post mostrou que essas políticas não foram aplicadas. Agora, novamente, a OpenAI não descreve como irá garantir que suas políticas sejam cumpridas.

Já houve casos de alto nível de mentiras relacionadas a eleições geradas por ferramentas de IA. Em outubro, o The Washington Post informou que o alto-falante doméstico Alexa da Amazon estava declarando falsamente que a eleição presidencial americana de 2020 havia sido roubada e estava repleta de fraudes eleitorais.

A senadora Amy Klobuchar expressou preocupação com o fato de o ChatGPT poder interferir no processo eleitoral, dizendo às pessoas para irem a um endereço falso quando perguntadas sobre o que fazer se as filas estiverem muito longas em um local de votação.

Se um país quisesse influenciar o processo político dos EUA, ele poderia, por exemplo, criar chatbots com aparência humana que promovessem narrativas divisivas nos espaços de mídia social americanos, em vez de ter que pagar agentes humanos para fazer isso. Os chatbots também poderiam criar mensagens personalizadas para cada eleitor, o que poderia aumentar sua eficácia a baixo custo.

Na postagem, a OpenAI disse que estava trabalhando para entender a eficácia de suas ferramentas para a “persuasão personalizada”. A empresa abriu recentemente sua “GPTStore”, que permite a qualquer pessoa treinar facilmente um chatbot usando seus próprios dados.

As ferramentas de IA generativa não têm uma compreensão do que é verdadeiro ou falso. Em vez disso, elas preveem qual seria uma boa resposta para uma pergunta com base na análise de bilhões de frases extraídas da internet. Muitas vezes, eles produzem textos semelhantes aos humanos, repletos de informações úteis. Mas também inventam regularmente informações falsas e as fazem passar por fatos.

Imagens criadas por IA já apareceram em toda a web, inclusive na pesquisa do Google, sendo apresentadas como imagens reais. Elas também começaram a aparecer nas campanhas eleitorais dos EUA. No ano passado, um anúncio lançado pela campanha do governador da Flórida, Ron DeSantis, usou o que pareciam ser imagens geradas por IA de Donald Trump abraçando o ex-conselheiro de coronavírus da Casa Branca, Anthony S. Fauci. Não está claro qual gerador de imagens foi usado para criar as imagens.

Outras empresas, incluindo o Google e a Adobe, fabricante do Photoshop, disseram que também usarão marcas d’água em imagens geradas por suas ferramentas de IA. Mas a tecnologia não é uma cura mágica para a disseminação de imagens falsas de IA. As marcas d’água visíveis podem ser facilmente cortadas ou editadas. As marcas d’água criptográficas incorporadas, que não são visíveis ao olho humano, podem ser distorcidas simplesmente virando a imagem ou mudando sua cor.

As empresas de tecnologia dizem que estão trabalhando para melhorar esse problema e torná-las à prova de adulteração, mas, por enquanto, nenhuma delas parece ter descoberto como fazer isso de forma eficaz.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

THE WASHINGTON POST - Nesta segunda, 15, a OpenAI apresentou seus planos e políticas para tentar impedir que as pessoas mal-intencionadas usem sua tecnologia para disseminar desinformação e mentiras durante eleições - bilhões de pessoas em algumas das maiores democracias do mundo vão às urnas este ano.

A empresa, que produz o popular chatbot ChatGPT e o gerador de imagens DALL-E e que fornece tecnologia de IA para muitas empresas, incluindo a Microsoft, disse em seu blog que não permitiria que as pessoas usassem sua tecnologia para fins políticos, incluindo espalhar desinformação sobre o processo de votação e o estímulo a supressão de votos (quando determinados públicos são encorajados a não votarem).

OpenAI apresentou termos para uso eleitoral de suas IAs Foto: Dado Ruvic/Reuters

A OpenAI disse que também começará a colocar marcas d’água - uma ferramenta para detectar fotografias criadas por IA - em imagens feitas com seu gerador de imagens DALL-E “no início deste ano”. “Trabalhamos para antecipar e evitar abusos relevantes - como ‘deep fakes’, operações de influência ou chatbots que se fazem passar por candidatos”, diz a OpenAI na postagem do blog.

Partidos políticos, agentes estatais e empreendedores oportunistas da internet usam a mídias sociais há anos para divulgar informações falsas e influenciar eleitores. Mas ativistas, políticos e pesquisadores de IA expressaram preocupação com o fato de que os chatbots e os geradores de imagens poderiam aumentar a sofisticação e o volume da desinformação política.

As medidas da OpenAI vêm depois que outras empresas de tecnologia também atualizaram suas políticas eleitorais para lidar com o boom da IA. Em dezembro, o Google disse que restringiria o tipo de respostas que suas ferramentas de IA dariam a perguntas relacionadas a eleições. Também disse que exigiria que as campanhas políticas que comprassem anúncios do Google divulgassem quando usassem IA. A Meta, controladora do Facebook, também exige que os anunciantes políticos divulguem se usaram IA.

Mas as empresas têm tido dificuldades para administrar suas próprias políticas de desinformação eleitoral. Embora a OpenAI proíba o uso de seus produtos para criar materiais de campanha direcionados, um relatório de agosto do Post mostrou que essas políticas não foram aplicadas. Agora, novamente, a OpenAI não descreve como irá garantir que suas políticas sejam cumpridas.

Já houve casos de alto nível de mentiras relacionadas a eleições geradas por ferramentas de IA. Em outubro, o The Washington Post informou que o alto-falante doméstico Alexa da Amazon estava declarando falsamente que a eleição presidencial americana de 2020 havia sido roubada e estava repleta de fraudes eleitorais.

A senadora Amy Klobuchar expressou preocupação com o fato de o ChatGPT poder interferir no processo eleitoral, dizendo às pessoas para irem a um endereço falso quando perguntadas sobre o que fazer se as filas estiverem muito longas em um local de votação.

Se um país quisesse influenciar o processo político dos EUA, ele poderia, por exemplo, criar chatbots com aparência humana que promovessem narrativas divisivas nos espaços de mídia social americanos, em vez de ter que pagar agentes humanos para fazer isso. Os chatbots também poderiam criar mensagens personalizadas para cada eleitor, o que poderia aumentar sua eficácia a baixo custo.

Na postagem, a OpenAI disse que estava trabalhando para entender a eficácia de suas ferramentas para a “persuasão personalizada”. A empresa abriu recentemente sua “GPTStore”, que permite a qualquer pessoa treinar facilmente um chatbot usando seus próprios dados.

As ferramentas de IA generativa não têm uma compreensão do que é verdadeiro ou falso. Em vez disso, elas preveem qual seria uma boa resposta para uma pergunta com base na análise de bilhões de frases extraídas da internet. Muitas vezes, eles produzem textos semelhantes aos humanos, repletos de informações úteis. Mas também inventam regularmente informações falsas e as fazem passar por fatos.

Imagens criadas por IA já apareceram em toda a web, inclusive na pesquisa do Google, sendo apresentadas como imagens reais. Elas também começaram a aparecer nas campanhas eleitorais dos EUA. No ano passado, um anúncio lançado pela campanha do governador da Flórida, Ron DeSantis, usou o que pareciam ser imagens geradas por IA de Donald Trump abraçando o ex-conselheiro de coronavírus da Casa Branca, Anthony S. Fauci. Não está claro qual gerador de imagens foi usado para criar as imagens.

Outras empresas, incluindo o Google e a Adobe, fabricante do Photoshop, disseram que também usarão marcas d’água em imagens geradas por suas ferramentas de IA. Mas a tecnologia não é uma cura mágica para a disseminação de imagens falsas de IA. As marcas d’água visíveis podem ser facilmente cortadas ou editadas. As marcas d’água criptográficas incorporadas, que não são visíveis ao olho humano, podem ser distorcidas simplesmente virando a imagem ou mudando sua cor.

As empresas de tecnologia dizem que estão trabalhando para melhorar esse problema e torná-las à prova de adulteração, mas, por enquanto, nenhuma delas parece ter descoberto como fazer isso de forma eficaz.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

THE WASHINGTON POST - Nesta segunda, 15, a OpenAI apresentou seus planos e políticas para tentar impedir que as pessoas mal-intencionadas usem sua tecnologia para disseminar desinformação e mentiras durante eleições - bilhões de pessoas em algumas das maiores democracias do mundo vão às urnas este ano.

A empresa, que produz o popular chatbot ChatGPT e o gerador de imagens DALL-E e que fornece tecnologia de IA para muitas empresas, incluindo a Microsoft, disse em seu blog que não permitiria que as pessoas usassem sua tecnologia para fins políticos, incluindo espalhar desinformação sobre o processo de votação e o estímulo a supressão de votos (quando determinados públicos são encorajados a não votarem).

OpenAI apresentou termos para uso eleitoral de suas IAs Foto: Dado Ruvic/Reuters

A OpenAI disse que também começará a colocar marcas d’água - uma ferramenta para detectar fotografias criadas por IA - em imagens feitas com seu gerador de imagens DALL-E “no início deste ano”. “Trabalhamos para antecipar e evitar abusos relevantes - como ‘deep fakes’, operações de influência ou chatbots que se fazem passar por candidatos”, diz a OpenAI na postagem do blog.

Partidos políticos, agentes estatais e empreendedores oportunistas da internet usam a mídias sociais há anos para divulgar informações falsas e influenciar eleitores. Mas ativistas, políticos e pesquisadores de IA expressaram preocupação com o fato de que os chatbots e os geradores de imagens poderiam aumentar a sofisticação e o volume da desinformação política.

As medidas da OpenAI vêm depois que outras empresas de tecnologia também atualizaram suas políticas eleitorais para lidar com o boom da IA. Em dezembro, o Google disse que restringiria o tipo de respostas que suas ferramentas de IA dariam a perguntas relacionadas a eleições. Também disse que exigiria que as campanhas políticas que comprassem anúncios do Google divulgassem quando usassem IA. A Meta, controladora do Facebook, também exige que os anunciantes políticos divulguem se usaram IA.

Mas as empresas têm tido dificuldades para administrar suas próprias políticas de desinformação eleitoral. Embora a OpenAI proíba o uso de seus produtos para criar materiais de campanha direcionados, um relatório de agosto do Post mostrou que essas políticas não foram aplicadas. Agora, novamente, a OpenAI não descreve como irá garantir que suas políticas sejam cumpridas.

Já houve casos de alto nível de mentiras relacionadas a eleições geradas por ferramentas de IA. Em outubro, o The Washington Post informou que o alto-falante doméstico Alexa da Amazon estava declarando falsamente que a eleição presidencial americana de 2020 havia sido roubada e estava repleta de fraudes eleitorais.

A senadora Amy Klobuchar expressou preocupação com o fato de o ChatGPT poder interferir no processo eleitoral, dizendo às pessoas para irem a um endereço falso quando perguntadas sobre o que fazer se as filas estiverem muito longas em um local de votação.

Se um país quisesse influenciar o processo político dos EUA, ele poderia, por exemplo, criar chatbots com aparência humana que promovessem narrativas divisivas nos espaços de mídia social americanos, em vez de ter que pagar agentes humanos para fazer isso. Os chatbots também poderiam criar mensagens personalizadas para cada eleitor, o que poderia aumentar sua eficácia a baixo custo.

Na postagem, a OpenAI disse que estava trabalhando para entender a eficácia de suas ferramentas para a “persuasão personalizada”. A empresa abriu recentemente sua “GPTStore”, que permite a qualquer pessoa treinar facilmente um chatbot usando seus próprios dados.

As ferramentas de IA generativa não têm uma compreensão do que é verdadeiro ou falso. Em vez disso, elas preveem qual seria uma boa resposta para uma pergunta com base na análise de bilhões de frases extraídas da internet. Muitas vezes, eles produzem textos semelhantes aos humanos, repletos de informações úteis. Mas também inventam regularmente informações falsas e as fazem passar por fatos.

Imagens criadas por IA já apareceram em toda a web, inclusive na pesquisa do Google, sendo apresentadas como imagens reais. Elas também começaram a aparecer nas campanhas eleitorais dos EUA. No ano passado, um anúncio lançado pela campanha do governador da Flórida, Ron DeSantis, usou o que pareciam ser imagens geradas por IA de Donald Trump abraçando o ex-conselheiro de coronavírus da Casa Branca, Anthony S. Fauci. Não está claro qual gerador de imagens foi usado para criar as imagens.

Outras empresas, incluindo o Google e a Adobe, fabricante do Photoshop, disseram que também usarão marcas d’água em imagens geradas por suas ferramentas de IA. Mas a tecnologia não é uma cura mágica para a disseminação de imagens falsas de IA. As marcas d’água visíveis podem ser facilmente cortadas ou editadas. As marcas d’água criptográficas incorporadas, que não são visíveis ao olho humano, podem ser distorcidas simplesmente virando a imagem ou mudando sua cor.

As empresas de tecnologia dizem que estão trabalhando para melhorar esse problema e torná-las à prova de adulteração, mas, por enquanto, nenhuma delas parece ter descoberto como fazer isso de forma eficaz.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.