A internet vai ficar muito pior com o crescimento da inteligência artificial; leia análise


Tecnologia pode deixar espaços públicos digitais ficarem ainda mais poluídos com conteúdo não confiável

Por Julia Angwin

THE NEW YORK TIMES - Greg Marston, um dublador britânico, encontrou recentemente na internet “Connor”, um clone de sua voz gerado por inteligência artificial (IA) que foi treinado em uma gravação que Marston havia feito em 2003. Era sua voz proferindo coisas que ele nunca havia dito.

Naquela época, ele havia gravado uma sessão para a IBM e, posteriormente, assinou um formulário de liberação permitindo que a gravação fosse usada de várias maneiras. É claro que, naquela época, Marston não podia imaginar que a IBM usaria nada mais do que as declarações exatas que ele havia gravado. Graças à inteligência artificial, no entanto, a IBM conseguiu vender a amostra de décadas de Marston para sites que a estão usando para criar uma voz sintética que pode dizer qualquer coisa. Recentemente, Marston descobriu sua voz emanando do site de Wimbledon durante o torneio de tênis. A IBM disse que está ciente da preocupação de Marston e que está discutindo o assunto diretamente com ele.

Sua situação ilustra por que muitos dos criadores mais conhecidos de nossa economia estão revoltados. Estamos em um momento de erosão da confiança, pois as pessoas percebem que suas contribuições para um espaço público podem ser tomadas, monetizadas e potencialmente usadas para competir com elas. Quando essa erosão estiver completa, eu me preocupo com a possibilidade de nossos espaços públicos digitais ficarem ainda mais poluídos com conteúdo não confiável.

continua após a publicidade
Autores estão processando empresas de IA após suas obras serem incluídas nas bases de dados dessas plataformas Foto: Charles Desmarais\The New York Times

Os artistas já estão excluindo seus trabalhos do X, anteriormente conhecido como Twitter, depois que a empresa disse que usaria os dados de sua plataforma para treinar sua IA. Os escritores e atores de Hollywood estão em greve, em parte porque querem garantir que seu trabalho não seja inserido em sistemas de IA pelos quais as empresas poderiam tentar substituí-los. Os veículos de notícias, incluindo o The New York Times e a CNN, adicionaram arquivos a seus sites para ajudar a evitar que os chatbots de IA extraiam seu conteúdo.

Autores estão processando empresas de IA, alegando que seus livros estão incluídos nos dados de treinamento dos sites. A OpenAI argumentou, em um processo separado, que o uso de dados protegidos por direitos autorais para o treinamento de sistemas de IA é legal de acordo com a cláusula de “uso justo” da lei de direitos autorais.

continua após a publicidade

Enquanto os criadores de conteúdo de qualidade contestam a forma como seu trabalho está sendo usado, o conteúdo duvidoso gerado por IA está invadindo a esfera pública. A NewsGuard identificou 475 sites de notícias e informações gerados por IA em 14 idiomas. A música gerada por IA está inundando sites de streaming e gerando royalties de IA para golpistas. Os livros gerados por IA - inclusive um guia de coleta de cogumelos que pode levar a erros na identificação de fungos altamente venenosos - são tão comuns na Amazon que a empresa está pedindo aos autores que publicam por conta própria em sua plataforma Kindle que também declarem se estão usando IA.

Esse é um caso clássico de tragédia dos bens comuns, em que um recurso comum é prejudicado pelos interesses de lucro dos indivíduos. O exemplo tradicional disso é um campo público onde o gado pode pastar. Sem nenhum limite, os proprietários individuais de gado têm um incentivo para pastar em excesso na terra, destruindo seu valor para todos.

Também temos bens comuns na internet. Apesar de todos os seus cantos tóxicos, ela ainda está cheia de partes vibrantes que servem ao bem público - lugares como a Wikipédia e os fóruns do Reddit, onde os voluntários geralmente compartilham conhecimento de boa fé e trabalham duro para manter os malfeitores afastados.

continua após a publicidade

No entanto, esses bens comuns estão sendo explorados excessivamente por empresas de tecnologia vorazes que buscam alimentar seus sistemas de IA com fins lucrativos com toda a sabedoria humana, experiência, humor, anedotas e conselhos que encontram nesses locais.

Considere, por exemplo, que os voluntários que criam e mantêm a Wikipédia confiaram que seu trabalho seria usado de acordo com os termos do site, que exige atribuição. Agora, alguns wikipedistas estão aparentemente debatendo se têm algum recurso legal contra chatbots que usam seu conteúdo sem citar a fonte.

Os órgãos reguladores também estão tentando descobrir isso. A União Europeia está considerando o primeiro conjunto de restrições globais à IA, que exigiria alguma transparência dos sistemas de IA generativos, incluindo o fornecimento de resumos de dados protegidos por direitos autorais que foram usados para treinar seus sistemas.

continua após a publicidade

Esse seria um bom passo à frente, já que muitos sistemas de IA não divulgam totalmente os dados com os quais foram treinados. Foram principalmente os jornalistas que descobriram os dados obscuros que estão sob a superfície brilhante dos chatbots. Uma investigação recente detalhada no The Atlantic revelou que mais de 170 mil livros piratas foram incluídos nos dados de treinamento do chatbot de IA da Meta, o Llama. Uma investigação do Washington Post revelou que o ChatGPT da OpenAI se baseia em dados extraídos sem consentimento de centenas de milhares de sites.

Mas a transparência dificilmente é suficiente para reequilibrar o poder entre aqueles cujos dados estão sendo explorados e as empresas que estão prontas para lucrar com essa exploração.

Tim Friedlander, fundador e presidente da National Association of Voice Actors (Associação Nacional de Atores de Voz), pediu que as empresas de IA adotem padrões éticos. Ele diz que os atores precisam de três Cs: consentimento, controle e compensação.

continua após a publicidade

De fato, todos nós precisamos dos três Cs. Quer sejamos atores profissionais ou apenas publiquemos fotos nas mídias sociais, todos devem ter o direito de dar um consentimento significativo sobre se queremos que nossas vidas online sejam inseridas nas gigantescas máquinas de IA.

E o consentimento não deve significar ter que localizar um monte de botões de exclusão difíceis de encontrar para clicar - que é para onde o setor está se dirigindo.

A compensação é mais difícil de descobrir, especialmente porque a maioria dos bots de IA são basicamente serviços gratuitos no momento. Mas não se engane, o setor de IA está planejando e ganhará dinheiro com esses sistemas e, quando isso acontecer, haverá um acerto de contas com aqueles cujos trabalhos alimentaram os lucros.

continua após a publicidade

Para pessoas como Marston, seus meios de subsistência estão em jogo. Ele calcula que seu clone de IA já lhe causou perda de emprego e reduzirá significativamente seus ganhos futuros. Ele está trabalhando com um advogado para buscar indenização. “Nunca concordei ou consenti que minha voz fosse clonada, para vê-la/ouvi-la divulgada ao público, competindo assim comigo mesmo”, disse.

Mas mesmo aqueles de nós que não têm um emprego diretamente ameaçado pela IA pensam em escrever aquele romance, compor uma música, gravar um TikTok ou fazer uma piada na mídia social. Se não tivermos nenhuma proteção contra os devoradores de dados da IA, temo que será inútil tentar criar em público. E isso seria uma verdadeira tragédia. /TRADUÇÃO ALICE LABATE

THE NEW YORK TIMES - Greg Marston, um dublador britânico, encontrou recentemente na internet “Connor”, um clone de sua voz gerado por inteligência artificial (IA) que foi treinado em uma gravação que Marston havia feito em 2003. Era sua voz proferindo coisas que ele nunca havia dito.

Naquela época, ele havia gravado uma sessão para a IBM e, posteriormente, assinou um formulário de liberação permitindo que a gravação fosse usada de várias maneiras. É claro que, naquela época, Marston não podia imaginar que a IBM usaria nada mais do que as declarações exatas que ele havia gravado. Graças à inteligência artificial, no entanto, a IBM conseguiu vender a amostra de décadas de Marston para sites que a estão usando para criar uma voz sintética que pode dizer qualquer coisa. Recentemente, Marston descobriu sua voz emanando do site de Wimbledon durante o torneio de tênis. A IBM disse que está ciente da preocupação de Marston e que está discutindo o assunto diretamente com ele.

Sua situação ilustra por que muitos dos criadores mais conhecidos de nossa economia estão revoltados. Estamos em um momento de erosão da confiança, pois as pessoas percebem que suas contribuições para um espaço público podem ser tomadas, monetizadas e potencialmente usadas para competir com elas. Quando essa erosão estiver completa, eu me preocupo com a possibilidade de nossos espaços públicos digitais ficarem ainda mais poluídos com conteúdo não confiável.

Autores estão processando empresas de IA após suas obras serem incluídas nas bases de dados dessas plataformas Foto: Charles Desmarais\The New York Times

Os artistas já estão excluindo seus trabalhos do X, anteriormente conhecido como Twitter, depois que a empresa disse que usaria os dados de sua plataforma para treinar sua IA. Os escritores e atores de Hollywood estão em greve, em parte porque querem garantir que seu trabalho não seja inserido em sistemas de IA pelos quais as empresas poderiam tentar substituí-los. Os veículos de notícias, incluindo o The New York Times e a CNN, adicionaram arquivos a seus sites para ajudar a evitar que os chatbots de IA extraiam seu conteúdo.

Autores estão processando empresas de IA, alegando que seus livros estão incluídos nos dados de treinamento dos sites. A OpenAI argumentou, em um processo separado, que o uso de dados protegidos por direitos autorais para o treinamento de sistemas de IA é legal de acordo com a cláusula de “uso justo” da lei de direitos autorais.

Enquanto os criadores de conteúdo de qualidade contestam a forma como seu trabalho está sendo usado, o conteúdo duvidoso gerado por IA está invadindo a esfera pública. A NewsGuard identificou 475 sites de notícias e informações gerados por IA em 14 idiomas. A música gerada por IA está inundando sites de streaming e gerando royalties de IA para golpistas. Os livros gerados por IA - inclusive um guia de coleta de cogumelos que pode levar a erros na identificação de fungos altamente venenosos - são tão comuns na Amazon que a empresa está pedindo aos autores que publicam por conta própria em sua plataforma Kindle que também declarem se estão usando IA.

Esse é um caso clássico de tragédia dos bens comuns, em que um recurso comum é prejudicado pelos interesses de lucro dos indivíduos. O exemplo tradicional disso é um campo público onde o gado pode pastar. Sem nenhum limite, os proprietários individuais de gado têm um incentivo para pastar em excesso na terra, destruindo seu valor para todos.

Também temos bens comuns na internet. Apesar de todos os seus cantos tóxicos, ela ainda está cheia de partes vibrantes que servem ao bem público - lugares como a Wikipédia e os fóruns do Reddit, onde os voluntários geralmente compartilham conhecimento de boa fé e trabalham duro para manter os malfeitores afastados.

No entanto, esses bens comuns estão sendo explorados excessivamente por empresas de tecnologia vorazes que buscam alimentar seus sistemas de IA com fins lucrativos com toda a sabedoria humana, experiência, humor, anedotas e conselhos que encontram nesses locais.

Considere, por exemplo, que os voluntários que criam e mantêm a Wikipédia confiaram que seu trabalho seria usado de acordo com os termos do site, que exige atribuição. Agora, alguns wikipedistas estão aparentemente debatendo se têm algum recurso legal contra chatbots que usam seu conteúdo sem citar a fonte.

Os órgãos reguladores também estão tentando descobrir isso. A União Europeia está considerando o primeiro conjunto de restrições globais à IA, que exigiria alguma transparência dos sistemas de IA generativos, incluindo o fornecimento de resumos de dados protegidos por direitos autorais que foram usados para treinar seus sistemas.

Esse seria um bom passo à frente, já que muitos sistemas de IA não divulgam totalmente os dados com os quais foram treinados. Foram principalmente os jornalistas que descobriram os dados obscuros que estão sob a superfície brilhante dos chatbots. Uma investigação recente detalhada no The Atlantic revelou que mais de 170 mil livros piratas foram incluídos nos dados de treinamento do chatbot de IA da Meta, o Llama. Uma investigação do Washington Post revelou que o ChatGPT da OpenAI se baseia em dados extraídos sem consentimento de centenas de milhares de sites.

Mas a transparência dificilmente é suficiente para reequilibrar o poder entre aqueles cujos dados estão sendo explorados e as empresas que estão prontas para lucrar com essa exploração.

Tim Friedlander, fundador e presidente da National Association of Voice Actors (Associação Nacional de Atores de Voz), pediu que as empresas de IA adotem padrões éticos. Ele diz que os atores precisam de três Cs: consentimento, controle e compensação.

De fato, todos nós precisamos dos três Cs. Quer sejamos atores profissionais ou apenas publiquemos fotos nas mídias sociais, todos devem ter o direito de dar um consentimento significativo sobre se queremos que nossas vidas online sejam inseridas nas gigantescas máquinas de IA.

E o consentimento não deve significar ter que localizar um monte de botões de exclusão difíceis de encontrar para clicar - que é para onde o setor está se dirigindo.

A compensação é mais difícil de descobrir, especialmente porque a maioria dos bots de IA são basicamente serviços gratuitos no momento. Mas não se engane, o setor de IA está planejando e ganhará dinheiro com esses sistemas e, quando isso acontecer, haverá um acerto de contas com aqueles cujos trabalhos alimentaram os lucros.

Para pessoas como Marston, seus meios de subsistência estão em jogo. Ele calcula que seu clone de IA já lhe causou perda de emprego e reduzirá significativamente seus ganhos futuros. Ele está trabalhando com um advogado para buscar indenização. “Nunca concordei ou consenti que minha voz fosse clonada, para vê-la/ouvi-la divulgada ao público, competindo assim comigo mesmo”, disse.

Mas mesmo aqueles de nós que não têm um emprego diretamente ameaçado pela IA pensam em escrever aquele romance, compor uma música, gravar um TikTok ou fazer uma piada na mídia social. Se não tivermos nenhuma proteção contra os devoradores de dados da IA, temo que será inútil tentar criar em público. E isso seria uma verdadeira tragédia. /TRADUÇÃO ALICE LABATE

THE NEW YORK TIMES - Greg Marston, um dublador britânico, encontrou recentemente na internet “Connor”, um clone de sua voz gerado por inteligência artificial (IA) que foi treinado em uma gravação que Marston havia feito em 2003. Era sua voz proferindo coisas que ele nunca havia dito.

Naquela época, ele havia gravado uma sessão para a IBM e, posteriormente, assinou um formulário de liberação permitindo que a gravação fosse usada de várias maneiras. É claro que, naquela época, Marston não podia imaginar que a IBM usaria nada mais do que as declarações exatas que ele havia gravado. Graças à inteligência artificial, no entanto, a IBM conseguiu vender a amostra de décadas de Marston para sites que a estão usando para criar uma voz sintética que pode dizer qualquer coisa. Recentemente, Marston descobriu sua voz emanando do site de Wimbledon durante o torneio de tênis. A IBM disse que está ciente da preocupação de Marston e que está discutindo o assunto diretamente com ele.

Sua situação ilustra por que muitos dos criadores mais conhecidos de nossa economia estão revoltados. Estamos em um momento de erosão da confiança, pois as pessoas percebem que suas contribuições para um espaço público podem ser tomadas, monetizadas e potencialmente usadas para competir com elas. Quando essa erosão estiver completa, eu me preocupo com a possibilidade de nossos espaços públicos digitais ficarem ainda mais poluídos com conteúdo não confiável.

Autores estão processando empresas de IA após suas obras serem incluídas nas bases de dados dessas plataformas Foto: Charles Desmarais\The New York Times

Os artistas já estão excluindo seus trabalhos do X, anteriormente conhecido como Twitter, depois que a empresa disse que usaria os dados de sua plataforma para treinar sua IA. Os escritores e atores de Hollywood estão em greve, em parte porque querem garantir que seu trabalho não seja inserido em sistemas de IA pelos quais as empresas poderiam tentar substituí-los. Os veículos de notícias, incluindo o The New York Times e a CNN, adicionaram arquivos a seus sites para ajudar a evitar que os chatbots de IA extraiam seu conteúdo.

Autores estão processando empresas de IA, alegando que seus livros estão incluídos nos dados de treinamento dos sites. A OpenAI argumentou, em um processo separado, que o uso de dados protegidos por direitos autorais para o treinamento de sistemas de IA é legal de acordo com a cláusula de “uso justo” da lei de direitos autorais.

Enquanto os criadores de conteúdo de qualidade contestam a forma como seu trabalho está sendo usado, o conteúdo duvidoso gerado por IA está invadindo a esfera pública. A NewsGuard identificou 475 sites de notícias e informações gerados por IA em 14 idiomas. A música gerada por IA está inundando sites de streaming e gerando royalties de IA para golpistas. Os livros gerados por IA - inclusive um guia de coleta de cogumelos que pode levar a erros na identificação de fungos altamente venenosos - são tão comuns na Amazon que a empresa está pedindo aos autores que publicam por conta própria em sua plataforma Kindle que também declarem se estão usando IA.

Esse é um caso clássico de tragédia dos bens comuns, em que um recurso comum é prejudicado pelos interesses de lucro dos indivíduos. O exemplo tradicional disso é um campo público onde o gado pode pastar. Sem nenhum limite, os proprietários individuais de gado têm um incentivo para pastar em excesso na terra, destruindo seu valor para todos.

Também temos bens comuns na internet. Apesar de todos os seus cantos tóxicos, ela ainda está cheia de partes vibrantes que servem ao bem público - lugares como a Wikipédia e os fóruns do Reddit, onde os voluntários geralmente compartilham conhecimento de boa fé e trabalham duro para manter os malfeitores afastados.

No entanto, esses bens comuns estão sendo explorados excessivamente por empresas de tecnologia vorazes que buscam alimentar seus sistemas de IA com fins lucrativos com toda a sabedoria humana, experiência, humor, anedotas e conselhos que encontram nesses locais.

Considere, por exemplo, que os voluntários que criam e mantêm a Wikipédia confiaram que seu trabalho seria usado de acordo com os termos do site, que exige atribuição. Agora, alguns wikipedistas estão aparentemente debatendo se têm algum recurso legal contra chatbots que usam seu conteúdo sem citar a fonte.

Os órgãos reguladores também estão tentando descobrir isso. A União Europeia está considerando o primeiro conjunto de restrições globais à IA, que exigiria alguma transparência dos sistemas de IA generativos, incluindo o fornecimento de resumos de dados protegidos por direitos autorais que foram usados para treinar seus sistemas.

Esse seria um bom passo à frente, já que muitos sistemas de IA não divulgam totalmente os dados com os quais foram treinados. Foram principalmente os jornalistas que descobriram os dados obscuros que estão sob a superfície brilhante dos chatbots. Uma investigação recente detalhada no The Atlantic revelou que mais de 170 mil livros piratas foram incluídos nos dados de treinamento do chatbot de IA da Meta, o Llama. Uma investigação do Washington Post revelou que o ChatGPT da OpenAI se baseia em dados extraídos sem consentimento de centenas de milhares de sites.

Mas a transparência dificilmente é suficiente para reequilibrar o poder entre aqueles cujos dados estão sendo explorados e as empresas que estão prontas para lucrar com essa exploração.

Tim Friedlander, fundador e presidente da National Association of Voice Actors (Associação Nacional de Atores de Voz), pediu que as empresas de IA adotem padrões éticos. Ele diz que os atores precisam de três Cs: consentimento, controle e compensação.

De fato, todos nós precisamos dos três Cs. Quer sejamos atores profissionais ou apenas publiquemos fotos nas mídias sociais, todos devem ter o direito de dar um consentimento significativo sobre se queremos que nossas vidas online sejam inseridas nas gigantescas máquinas de IA.

E o consentimento não deve significar ter que localizar um monte de botões de exclusão difíceis de encontrar para clicar - que é para onde o setor está se dirigindo.

A compensação é mais difícil de descobrir, especialmente porque a maioria dos bots de IA são basicamente serviços gratuitos no momento. Mas não se engane, o setor de IA está planejando e ganhará dinheiro com esses sistemas e, quando isso acontecer, haverá um acerto de contas com aqueles cujos trabalhos alimentaram os lucros.

Para pessoas como Marston, seus meios de subsistência estão em jogo. Ele calcula que seu clone de IA já lhe causou perda de emprego e reduzirá significativamente seus ganhos futuros. Ele está trabalhando com um advogado para buscar indenização. “Nunca concordei ou consenti que minha voz fosse clonada, para vê-la/ouvi-la divulgada ao público, competindo assim comigo mesmo”, disse.

Mas mesmo aqueles de nós que não têm um emprego diretamente ameaçado pela IA pensam em escrever aquele romance, compor uma música, gravar um TikTok ou fazer uma piada na mídia social. Se não tivermos nenhuma proteção contra os devoradores de dados da IA, temo que será inútil tentar criar em público. E isso seria uma verdadeira tragédia. /TRADUÇÃO ALICE LABATE

THE NEW YORK TIMES - Greg Marston, um dublador britânico, encontrou recentemente na internet “Connor”, um clone de sua voz gerado por inteligência artificial (IA) que foi treinado em uma gravação que Marston havia feito em 2003. Era sua voz proferindo coisas que ele nunca havia dito.

Naquela época, ele havia gravado uma sessão para a IBM e, posteriormente, assinou um formulário de liberação permitindo que a gravação fosse usada de várias maneiras. É claro que, naquela época, Marston não podia imaginar que a IBM usaria nada mais do que as declarações exatas que ele havia gravado. Graças à inteligência artificial, no entanto, a IBM conseguiu vender a amostra de décadas de Marston para sites que a estão usando para criar uma voz sintética que pode dizer qualquer coisa. Recentemente, Marston descobriu sua voz emanando do site de Wimbledon durante o torneio de tênis. A IBM disse que está ciente da preocupação de Marston e que está discutindo o assunto diretamente com ele.

Sua situação ilustra por que muitos dos criadores mais conhecidos de nossa economia estão revoltados. Estamos em um momento de erosão da confiança, pois as pessoas percebem que suas contribuições para um espaço público podem ser tomadas, monetizadas e potencialmente usadas para competir com elas. Quando essa erosão estiver completa, eu me preocupo com a possibilidade de nossos espaços públicos digitais ficarem ainda mais poluídos com conteúdo não confiável.

Autores estão processando empresas de IA após suas obras serem incluídas nas bases de dados dessas plataformas Foto: Charles Desmarais\The New York Times

Os artistas já estão excluindo seus trabalhos do X, anteriormente conhecido como Twitter, depois que a empresa disse que usaria os dados de sua plataforma para treinar sua IA. Os escritores e atores de Hollywood estão em greve, em parte porque querem garantir que seu trabalho não seja inserido em sistemas de IA pelos quais as empresas poderiam tentar substituí-los. Os veículos de notícias, incluindo o The New York Times e a CNN, adicionaram arquivos a seus sites para ajudar a evitar que os chatbots de IA extraiam seu conteúdo.

Autores estão processando empresas de IA, alegando que seus livros estão incluídos nos dados de treinamento dos sites. A OpenAI argumentou, em um processo separado, que o uso de dados protegidos por direitos autorais para o treinamento de sistemas de IA é legal de acordo com a cláusula de “uso justo” da lei de direitos autorais.

Enquanto os criadores de conteúdo de qualidade contestam a forma como seu trabalho está sendo usado, o conteúdo duvidoso gerado por IA está invadindo a esfera pública. A NewsGuard identificou 475 sites de notícias e informações gerados por IA em 14 idiomas. A música gerada por IA está inundando sites de streaming e gerando royalties de IA para golpistas. Os livros gerados por IA - inclusive um guia de coleta de cogumelos que pode levar a erros na identificação de fungos altamente venenosos - são tão comuns na Amazon que a empresa está pedindo aos autores que publicam por conta própria em sua plataforma Kindle que também declarem se estão usando IA.

Esse é um caso clássico de tragédia dos bens comuns, em que um recurso comum é prejudicado pelos interesses de lucro dos indivíduos. O exemplo tradicional disso é um campo público onde o gado pode pastar. Sem nenhum limite, os proprietários individuais de gado têm um incentivo para pastar em excesso na terra, destruindo seu valor para todos.

Também temos bens comuns na internet. Apesar de todos os seus cantos tóxicos, ela ainda está cheia de partes vibrantes que servem ao bem público - lugares como a Wikipédia e os fóruns do Reddit, onde os voluntários geralmente compartilham conhecimento de boa fé e trabalham duro para manter os malfeitores afastados.

No entanto, esses bens comuns estão sendo explorados excessivamente por empresas de tecnologia vorazes que buscam alimentar seus sistemas de IA com fins lucrativos com toda a sabedoria humana, experiência, humor, anedotas e conselhos que encontram nesses locais.

Considere, por exemplo, que os voluntários que criam e mantêm a Wikipédia confiaram que seu trabalho seria usado de acordo com os termos do site, que exige atribuição. Agora, alguns wikipedistas estão aparentemente debatendo se têm algum recurso legal contra chatbots que usam seu conteúdo sem citar a fonte.

Os órgãos reguladores também estão tentando descobrir isso. A União Europeia está considerando o primeiro conjunto de restrições globais à IA, que exigiria alguma transparência dos sistemas de IA generativos, incluindo o fornecimento de resumos de dados protegidos por direitos autorais que foram usados para treinar seus sistemas.

Esse seria um bom passo à frente, já que muitos sistemas de IA não divulgam totalmente os dados com os quais foram treinados. Foram principalmente os jornalistas que descobriram os dados obscuros que estão sob a superfície brilhante dos chatbots. Uma investigação recente detalhada no The Atlantic revelou que mais de 170 mil livros piratas foram incluídos nos dados de treinamento do chatbot de IA da Meta, o Llama. Uma investigação do Washington Post revelou que o ChatGPT da OpenAI se baseia em dados extraídos sem consentimento de centenas de milhares de sites.

Mas a transparência dificilmente é suficiente para reequilibrar o poder entre aqueles cujos dados estão sendo explorados e as empresas que estão prontas para lucrar com essa exploração.

Tim Friedlander, fundador e presidente da National Association of Voice Actors (Associação Nacional de Atores de Voz), pediu que as empresas de IA adotem padrões éticos. Ele diz que os atores precisam de três Cs: consentimento, controle e compensação.

De fato, todos nós precisamos dos três Cs. Quer sejamos atores profissionais ou apenas publiquemos fotos nas mídias sociais, todos devem ter o direito de dar um consentimento significativo sobre se queremos que nossas vidas online sejam inseridas nas gigantescas máquinas de IA.

E o consentimento não deve significar ter que localizar um monte de botões de exclusão difíceis de encontrar para clicar - que é para onde o setor está se dirigindo.

A compensação é mais difícil de descobrir, especialmente porque a maioria dos bots de IA são basicamente serviços gratuitos no momento. Mas não se engane, o setor de IA está planejando e ganhará dinheiro com esses sistemas e, quando isso acontecer, haverá um acerto de contas com aqueles cujos trabalhos alimentaram os lucros.

Para pessoas como Marston, seus meios de subsistência estão em jogo. Ele calcula que seu clone de IA já lhe causou perda de emprego e reduzirá significativamente seus ganhos futuros. Ele está trabalhando com um advogado para buscar indenização. “Nunca concordei ou consenti que minha voz fosse clonada, para vê-la/ouvi-la divulgada ao público, competindo assim comigo mesmo”, disse.

Mas mesmo aqueles de nós que não têm um emprego diretamente ameaçado pela IA pensam em escrever aquele romance, compor uma música, gravar um TikTok ou fazer uma piada na mídia social. Se não tivermos nenhuma proteção contra os devoradores de dados da IA, temo que será inútil tentar criar em público. E isso seria uma verdadeira tragédia. /TRADUÇÃO ALICE LABATE

THE NEW YORK TIMES - Greg Marston, um dublador britânico, encontrou recentemente na internet “Connor”, um clone de sua voz gerado por inteligência artificial (IA) que foi treinado em uma gravação que Marston havia feito em 2003. Era sua voz proferindo coisas que ele nunca havia dito.

Naquela época, ele havia gravado uma sessão para a IBM e, posteriormente, assinou um formulário de liberação permitindo que a gravação fosse usada de várias maneiras. É claro que, naquela época, Marston não podia imaginar que a IBM usaria nada mais do que as declarações exatas que ele havia gravado. Graças à inteligência artificial, no entanto, a IBM conseguiu vender a amostra de décadas de Marston para sites que a estão usando para criar uma voz sintética que pode dizer qualquer coisa. Recentemente, Marston descobriu sua voz emanando do site de Wimbledon durante o torneio de tênis. A IBM disse que está ciente da preocupação de Marston e que está discutindo o assunto diretamente com ele.

Sua situação ilustra por que muitos dos criadores mais conhecidos de nossa economia estão revoltados. Estamos em um momento de erosão da confiança, pois as pessoas percebem que suas contribuições para um espaço público podem ser tomadas, monetizadas e potencialmente usadas para competir com elas. Quando essa erosão estiver completa, eu me preocupo com a possibilidade de nossos espaços públicos digitais ficarem ainda mais poluídos com conteúdo não confiável.

Autores estão processando empresas de IA após suas obras serem incluídas nas bases de dados dessas plataformas Foto: Charles Desmarais\The New York Times

Os artistas já estão excluindo seus trabalhos do X, anteriormente conhecido como Twitter, depois que a empresa disse que usaria os dados de sua plataforma para treinar sua IA. Os escritores e atores de Hollywood estão em greve, em parte porque querem garantir que seu trabalho não seja inserido em sistemas de IA pelos quais as empresas poderiam tentar substituí-los. Os veículos de notícias, incluindo o The New York Times e a CNN, adicionaram arquivos a seus sites para ajudar a evitar que os chatbots de IA extraiam seu conteúdo.

Autores estão processando empresas de IA, alegando que seus livros estão incluídos nos dados de treinamento dos sites. A OpenAI argumentou, em um processo separado, que o uso de dados protegidos por direitos autorais para o treinamento de sistemas de IA é legal de acordo com a cláusula de “uso justo” da lei de direitos autorais.

Enquanto os criadores de conteúdo de qualidade contestam a forma como seu trabalho está sendo usado, o conteúdo duvidoso gerado por IA está invadindo a esfera pública. A NewsGuard identificou 475 sites de notícias e informações gerados por IA em 14 idiomas. A música gerada por IA está inundando sites de streaming e gerando royalties de IA para golpistas. Os livros gerados por IA - inclusive um guia de coleta de cogumelos que pode levar a erros na identificação de fungos altamente venenosos - são tão comuns na Amazon que a empresa está pedindo aos autores que publicam por conta própria em sua plataforma Kindle que também declarem se estão usando IA.

Esse é um caso clássico de tragédia dos bens comuns, em que um recurso comum é prejudicado pelos interesses de lucro dos indivíduos. O exemplo tradicional disso é um campo público onde o gado pode pastar. Sem nenhum limite, os proprietários individuais de gado têm um incentivo para pastar em excesso na terra, destruindo seu valor para todos.

Também temos bens comuns na internet. Apesar de todos os seus cantos tóxicos, ela ainda está cheia de partes vibrantes que servem ao bem público - lugares como a Wikipédia e os fóruns do Reddit, onde os voluntários geralmente compartilham conhecimento de boa fé e trabalham duro para manter os malfeitores afastados.

No entanto, esses bens comuns estão sendo explorados excessivamente por empresas de tecnologia vorazes que buscam alimentar seus sistemas de IA com fins lucrativos com toda a sabedoria humana, experiência, humor, anedotas e conselhos que encontram nesses locais.

Considere, por exemplo, que os voluntários que criam e mantêm a Wikipédia confiaram que seu trabalho seria usado de acordo com os termos do site, que exige atribuição. Agora, alguns wikipedistas estão aparentemente debatendo se têm algum recurso legal contra chatbots que usam seu conteúdo sem citar a fonte.

Os órgãos reguladores também estão tentando descobrir isso. A União Europeia está considerando o primeiro conjunto de restrições globais à IA, que exigiria alguma transparência dos sistemas de IA generativos, incluindo o fornecimento de resumos de dados protegidos por direitos autorais que foram usados para treinar seus sistemas.

Esse seria um bom passo à frente, já que muitos sistemas de IA não divulgam totalmente os dados com os quais foram treinados. Foram principalmente os jornalistas que descobriram os dados obscuros que estão sob a superfície brilhante dos chatbots. Uma investigação recente detalhada no The Atlantic revelou que mais de 170 mil livros piratas foram incluídos nos dados de treinamento do chatbot de IA da Meta, o Llama. Uma investigação do Washington Post revelou que o ChatGPT da OpenAI se baseia em dados extraídos sem consentimento de centenas de milhares de sites.

Mas a transparência dificilmente é suficiente para reequilibrar o poder entre aqueles cujos dados estão sendo explorados e as empresas que estão prontas para lucrar com essa exploração.

Tim Friedlander, fundador e presidente da National Association of Voice Actors (Associação Nacional de Atores de Voz), pediu que as empresas de IA adotem padrões éticos. Ele diz que os atores precisam de três Cs: consentimento, controle e compensação.

De fato, todos nós precisamos dos três Cs. Quer sejamos atores profissionais ou apenas publiquemos fotos nas mídias sociais, todos devem ter o direito de dar um consentimento significativo sobre se queremos que nossas vidas online sejam inseridas nas gigantescas máquinas de IA.

E o consentimento não deve significar ter que localizar um monte de botões de exclusão difíceis de encontrar para clicar - que é para onde o setor está se dirigindo.

A compensação é mais difícil de descobrir, especialmente porque a maioria dos bots de IA são basicamente serviços gratuitos no momento. Mas não se engane, o setor de IA está planejando e ganhará dinheiro com esses sistemas e, quando isso acontecer, haverá um acerto de contas com aqueles cujos trabalhos alimentaram os lucros.

Para pessoas como Marston, seus meios de subsistência estão em jogo. Ele calcula que seu clone de IA já lhe causou perda de emprego e reduzirá significativamente seus ganhos futuros. Ele está trabalhando com um advogado para buscar indenização. “Nunca concordei ou consenti que minha voz fosse clonada, para vê-la/ouvi-la divulgada ao público, competindo assim comigo mesmo”, disse.

Mas mesmo aqueles de nós que não têm um emprego diretamente ameaçado pela IA pensam em escrever aquele romance, compor uma música, gravar um TikTok ou fazer uma piada na mídia social. Se não tivermos nenhuma proteção contra os devoradores de dados da IA, temo que será inútil tentar criar em público. E isso seria uma verdadeira tragédia. /TRADUÇÃO ALICE LABATE

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.