Jornalismo, educação, tecnologia e as combinações disso tudo

Opinião|A democracia precisa que o jornalismo e a inteligência artificial se entendam


Por Paulo Silvestre
Uma inteligência artificial treinada com informações ruins não deve ser usada para confundir eleitores - Ilustração: Paulo Silvestre  Foto: Ilustração: Paulo Silvestre

A recente briga do New York Times contra a Microsoft e a OpenAI (criadora do ChatGPT) pode ajudar a definir como nos informaremos no futuro e impactar consideravelmente a saúde da democracia no mundo todo. Tudo porque o processo aberto pelo jornal no dia 27 de dezembro contra as duas empresas de tecnologia pode balizar a qualidade do que a inteligência artificial oferecerá a todos nós.

O jornal afirma que seu conteúdo vem sendo usado para treinar as plataformas de IA, sem que seja remunerado ou sequer tenha autorizado esse uso, o que é verdade. Enquanto isso, essas plataformas rendem bilhões de dólares a seus donos.

continua após a publicidade

Desde que o ChatGPT foi lançado no final de 2022, as pessoas vêm usando a IA para trabalhar, estudar e se divertir, acreditando candidamente em suas entregas. Sua precisão e seus recursos para evitar que produza e dissemine fake news dependem profundamente da qualidade do conteúdo usado em seu treinamento. O New York Times e outros grandes veículos jornalísticos são, portanto, algumas das melhores fontes para garantir uma entrega mais confiável aos usuários.

O problema é tão grave que, no dia 10, o Fórum Econômico Mundial indicou, em seu relatório Riscos Globais 2024, que informações falsas ou distorcidas produzidas por inteligência artificial já representam o "maior risco global no curto prazo".

Nesse ano, dois bilhões de pessoas participarão de eleições no mundo, inclusive no Brasil, e a IA já vem sendo usada para aumentar a desinformação nas campanhas. Por aqui, o Tribunal Superior Eleitoral (TSE) busca maneiras de regular seu uso no pleito municipal de outubro, uma tarefa muito complexa. Por isso, é fundamental que os bons produtores de conteúdo e as big techs encontrem formas de melhorar essas plataformas respeitando os direitos e remunerando adequadamente os autores.

continua após a publicidade

Veja esse artigo em vídeo:

continua após a publicidade

Em um cenário extremo hipotético em que todos os produtores de bons conteúdos impeçam que os desenvolvedores os acessem, a IA ficaria à mercê de fontes pouco confiáveis (para dizer o mínimo). Isso aumentaria brutalmente a chance de ela ser manipulada, ajudando a transformar os usuários em autômatos da desinformação. E isso seria trágico também para o bom jornalismo, que luta fortemente contra isso.

Criou-se então um dilema: as plataformas precisam de bom conteúdo, mas não estão muito dispostas a pagar por ele, enquanto os veículos jornalísticos têm que garantir seus direitos, mas deveriam ajudar a melhorar as entregas da inteligência artificial.

continua após a publicidade

"Quando eu compro uma assinatura do New York Times, eu não estou autorizado a pegar todo o conteúdo e desenvolver um produto meu em cima dele", explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). "Só que é mais ou menos isso que a OpenAI faz quando pega esses dados".

Para que os sistemas de inteligência artificial funcionem bem, eles precisam ser treinados com uma quantidade monstruosa de informações diversas, para que aprendam o que dizer e respeitem a diversidade de ideias. Em tese, todas as suas produções são inéditas, por isso os desenvolvedores se valem do conceito jurídico americano do "uso justo" ("fair use"), que protege as big techs há pelo menos duas décadas, quando, por exemplo, rastreiam a Internet inteira para fazer um buscador funcionar.

continua após a publicidade

Por essa regra, os produtos digitais exibiriam apenas pequenos trechos desses conteúdos, insuficientes para configurar uma concorrência. Mas em seu processo, o New York Times afirma que as plataformas de IA exibiriam literalmente grandes nacos de sua produção, inclusive de material exclusivo a seus assinantes. A OpenAI nega.

É um desafio para a Justiça dos EUA, pois as leis do país proíbem a cópia de conteúdo, mas permitem que se criem produtos combinando elementos de diferentes fontes, sem criar concorrência direta. As plataformas de IA fazem as duas coisas.

continua após a publicidade

 

Ameaça à democracia

Nesse pântano jurídico, grupos políticos já vêm se esbaldando nos recursos da inteligência artificial para convencer -ou mais especificamente confundir- os eleitores.

O TSE tenta encontrar formas de pelo menos dificultar que isso aconteça nas eleições brasileiras. No dia 4, publicou dez minutas de resoluções para esse fim. Esses textos estarão em consulta pública até o dia 19 deste mês. Entre 23 e 25 de janeiro, ocorrerão audiências abertas na Corte para o aperfeiçoamento das normas.

Infelizmente, criar ótimas regras é relativamente fácil. Verificar seu cumprimento, por outro lado, é bem difícil, especialmente nas campanhas não-oficiais, realizadas por eleitores diretamente instruídos pelos candidatos ou espontaneamente. Com isso, o gigantesco problema de disseminação de fake news e discursos de ódio em redes sociais (que fazem muito menos do que deveriam para combater isso) agora deve ser potencializado pelo uso da inteligência artificial igualmente não-regulada.

A solução exige, portanto, a participação da Justiça, dos veículos de comunicação e das big techs das redes sociais e de inteligência artificial. Felizmente há também movimentos positivos de consenso.

Segundo o mesmo New York Times, a Apple, que está atrasada no campo da IA, estaria tentando costurar acordos financeiros para justamente usar os conteúdos de grandes empresas de comunicação para o treinamento da sua plataforma em desenvolvimento. A notícia só não é totalmente positiva porque ela estaria interessada em consumir esse conteúdo, mas não em responder por qualquer problema derivado dele, o que está deixando os editores desses veículos desconfortáveis. E eles andam bem desconfiados por seus acordos prévios com o Vale do Silício, que, ao longo dos anos, favoreceram as big techs, enquanto viam seus negócios minguarem.

Tudo isso envolve interesses de bilhões de dólares e moldará a sociedade decisivamente nos próximos anos. É preciso um desenvolvimento responsável e transparente da tecnologia e uma enorme quantidade de boas informações. "Pode ser que a gente tenha modelos de inteligência artificial que sejam focados na maldade", sugere Crespo. "É que ninguém parou para fazer isso ainda ou talvez ninguém tenha tanto dinheiro para isso."

Alguns acreditam que a solução seria educar a população para não acreditar tão facilmente no que veem nas redes sociais e agora na inteligência artificial. No mundo ideal, isso resolveria o problema. Mas isso simplesmente não vai acontecer e as pessoas continuarão sendo manipuladas, agora possivelmente ainda mais.

Os já citados atores precisam dar as mãos para evitar o pior. Os veículos de comunicação devem alimentar a IA, mas de maneira justa, sem que isso ameace sua sobrevivência. As big techs precisam se abrir a esses acordos financeiros e se esforçar muito mais na transparência de seus sistemas e no respeito aos usuários e à própria democracia. E a Justiça precisa encontrar meios de regular tudo isso, sem ameaçar o avanço tecnológico.

Em um mundo tão digitalizado, a democracia depende do sucesso dessa união.

 

Uma inteligência artificial treinada com informações ruins não deve ser usada para confundir eleitores - Ilustração: Paulo Silvestre  Foto: Ilustração: Paulo Silvestre

A recente briga do New York Times contra a Microsoft e a OpenAI (criadora do ChatGPT) pode ajudar a definir como nos informaremos no futuro e impactar consideravelmente a saúde da democracia no mundo todo. Tudo porque o processo aberto pelo jornal no dia 27 de dezembro contra as duas empresas de tecnologia pode balizar a qualidade do que a inteligência artificial oferecerá a todos nós.

O jornal afirma que seu conteúdo vem sendo usado para treinar as plataformas de IA, sem que seja remunerado ou sequer tenha autorizado esse uso, o que é verdade. Enquanto isso, essas plataformas rendem bilhões de dólares a seus donos.

Desde que o ChatGPT foi lançado no final de 2022, as pessoas vêm usando a IA para trabalhar, estudar e se divertir, acreditando candidamente em suas entregas. Sua precisão e seus recursos para evitar que produza e dissemine fake news dependem profundamente da qualidade do conteúdo usado em seu treinamento. O New York Times e outros grandes veículos jornalísticos são, portanto, algumas das melhores fontes para garantir uma entrega mais confiável aos usuários.

O problema é tão grave que, no dia 10, o Fórum Econômico Mundial indicou, em seu relatório Riscos Globais 2024, que informações falsas ou distorcidas produzidas por inteligência artificial já representam o "maior risco global no curto prazo".

Nesse ano, dois bilhões de pessoas participarão de eleições no mundo, inclusive no Brasil, e a IA já vem sendo usada para aumentar a desinformação nas campanhas. Por aqui, o Tribunal Superior Eleitoral (TSE) busca maneiras de regular seu uso no pleito municipal de outubro, uma tarefa muito complexa. Por isso, é fundamental que os bons produtores de conteúdo e as big techs encontrem formas de melhorar essas plataformas respeitando os direitos e remunerando adequadamente os autores.

Veja esse artigo em vídeo:

Em um cenário extremo hipotético em que todos os produtores de bons conteúdos impeçam que os desenvolvedores os acessem, a IA ficaria à mercê de fontes pouco confiáveis (para dizer o mínimo). Isso aumentaria brutalmente a chance de ela ser manipulada, ajudando a transformar os usuários em autômatos da desinformação. E isso seria trágico também para o bom jornalismo, que luta fortemente contra isso.

Criou-se então um dilema: as plataformas precisam de bom conteúdo, mas não estão muito dispostas a pagar por ele, enquanto os veículos jornalísticos têm que garantir seus direitos, mas deveriam ajudar a melhorar as entregas da inteligência artificial.

"Quando eu compro uma assinatura do New York Times, eu não estou autorizado a pegar todo o conteúdo e desenvolver um produto meu em cima dele", explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). "Só que é mais ou menos isso que a OpenAI faz quando pega esses dados".

Para que os sistemas de inteligência artificial funcionem bem, eles precisam ser treinados com uma quantidade monstruosa de informações diversas, para que aprendam o que dizer e respeitem a diversidade de ideias. Em tese, todas as suas produções são inéditas, por isso os desenvolvedores se valem do conceito jurídico americano do "uso justo" ("fair use"), que protege as big techs há pelo menos duas décadas, quando, por exemplo, rastreiam a Internet inteira para fazer um buscador funcionar.

Por essa regra, os produtos digitais exibiriam apenas pequenos trechos desses conteúdos, insuficientes para configurar uma concorrência. Mas em seu processo, o New York Times afirma que as plataformas de IA exibiriam literalmente grandes nacos de sua produção, inclusive de material exclusivo a seus assinantes. A OpenAI nega.

É um desafio para a Justiça dos EUA, pois as leis do país proíbem a cópia de conteúdo, mas permitem que se criem produtos combinando elementos de diferentes fontes, sem criar concorrência direta. As plataformas de IA fazem as duas coisas.

 

Ameaça à democracia

Nesse pântano jurídico, grupos políticos já vêm se esbaldando nos recursos da inteligência artificial para convencer -ou mais especificamente confundir- os eleitores.

O TSE tenta encontrar formas de pelo menos dificultar que isso aconteça nas eleições brasileiras. No dia 4, publicou dez minutas de resoluções para esse fim. Esses textos estarão em consulta pública até o dia 19 deste mês. Entre 23 e 25 de janeiro, ocorrerão audiências abertas na Corte para o aperfeiçoamento das normas.

Infelizmente, criar ótimas regras é relativamente fácil. Verificar seu cumprimento, por outro lado, é bem difícil, especialmente nas campanhas não-oficiais, realizadas por eleitores diretamente instruídos pelos candidatos ou espontaneamente. Com isso, o gigantesco problema de disseminação de fake news e discursos de ódio em redes sociais (que fazem muito menos do que deveriam para combater isso) agora deve ser potencializado pelo uso da inteligência artificial igualmente não-regulada.

A solução exige, portanto, a participação da Justiça, dos veículos de comunicação e das big techs das redes sociais e de inteligência artificial. Felizmente há também movimentos positivos de consenso.

Segundo o mesmo New York Times, a Apple, que está atrasada no campo da IA, estaria tentando costurar acordos financeiros para justamente usar os conteúdos de grandes empresas de comunicação para o treinamento da sua plataforma em desenvolvimento. A notícia só não é totalmente positiva porque ela estaria interessada em consumir esse conteúdo, mas não em responder por qualquer problema derivado dele, o que está deixando os editores desses veículos desconfortáveis. E eles andam bem desconfiados por seus acordos prévios com o Vale do Silício, que, ao longo dos anos, favoreceram as big techs, enquanto viam seus negócios minguarem.

Tudo isso envolve interesses de bilhões de dólares e moldará a sociedade decisivamente nos próximos anos. É preciso um desenvolvimento responsável e transparente da tecnologia e uma enorme quantidade de boas informações. "Pode ser que a gente tenha modelos de inteligência artificial que sejam focados na maldade", sugere Crespo. "É que ninguém parou para fazer isso ainda ou talvez ninguém tenha tanto dinheiro para isso."

Alguns acreditam que a solução seria educar a população para não acreditar tão facilmente no que veem nas redes sociais e agora na inteligência artificial. No mundo ideal, isso resolveria o problema. Mas isso simplesmente não vai acontecer e as pessoas continuarão sendo manipuladas, agora possivelmente ainda mais.

Os já citados atores precisam dar as mãos para evitar o pior. Os veículos de comunicação devem alimentar a IA, mas de maneira justa, sem que isso ameace sua sobrevivência. As big techs precisam se abrir a esses acordos financeiros e se esforçar muito mais na transparência de seus sistemas e no respeito aos usuários e à própria democracia. E a Justiça precisa encontrar meios de regular tudo isso, sem ameaçar o avanço tecnológico.

Em um mundo tão digitalizado, a democracia depende do sucesso dessa união.

 

Uma inteligência artificial treinada com informações ruins não deve ser usada para confundir eleitores - Ilustração: Paulo Silvestre  Foto: Ilustração: Paulo Silvestre

A recente briga do New York Times contra a Microsoft e a OpenAI (criadora do ChatGPT) pode ajudar a definir como nos informaremos no futuro e impactar consideravelmente a saúde da democracia no mundo todo. Tudo porque o processo aberto pelo jornal no dia 27 de dezembro contra as duas empresas de tecnologia pode balizar a qualidade do que a inteligência artificial oferecerá a todos nós.

O jornal afirma que seu conteúdo vem sendo usado para treinar as plataformas de IA, sem que seja remunerado ou sequer tenha autorizado esse uso, o que é verdade. Enquanto isso, essas plataformas rendem bilhões de dólares a seus donos.

Desde que o ChatGPT foi lançado no final de 2022, as pessoas vêm usando a IA para trabalhar, estudar e se divertir, acreditando candidamente em suas entregas. Sua precisão e seus recursos para evitar que produza e dissemine fake news dependem profundamente da qualidade do conteúdo usado em seu treinamento. O New York Times e outros grandes veículos jornalísticos são, portanto, algumas das melhores fontes para garantir uma entrega mais confiável aos usuários.

O problema é tão grave que, no dia 10, o Fórum Econômico Mundial indicou, em seu relatório Riscos Globais 2024, que informações falsas ou distorcidas produzidas por inteligência artificial já representam o "maior risco global no curto prazo".

Nesse ano, dois bilhões de pessoas participarão de eleições no mundo, inclusive no Brasil, e a IA já vem sendo usada para aumentar a desinformação nas campanhas. Por aqui, o Tribunal Superior Eleitoral (TSE) busca maneiras de regular seu uso no pleito municipal de outubro, uma tarefa muito complexa. Por isso, é fundamental que os bons produtores de conteúdo e as big techs encontrem formas de melhorar essas plataformas respeitando os direitos e remunerando adequadamente os autores.

Veja esse artigo em vídeo:

Em um cenário extremo hipotético em que todos os produtores de bons conteúdos impeçam que os desenvolvedores os acessem, a IA ficaria à mercê de fontes pouco confiáveis (para dizer o mínimo). Isso aumentaria brutalmente a chance de ela ser manipulada, ajudando a transformar os usuários em autômatos da desinformação. E isso seria trágico também para o bom jornalismo, que luta fortemente contra isso.

Criou-se então um dilema: as plataformas precisam de bom conteúdo, mas não estão muito dispostas a pagar por ele, enquanto os veículos jornalísticos têm que garantir seus direitos, mas deveriam ajudar a melhorar as entregas da inteligência artificial.

"Quando eu compro uma assinatura do New York Times, eu não estou autorizado a pegar todo o conteúdo e desenvolver um produto meu em cima dele", explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). "Só que é mais ou menos isso que a OpenAI faz quando pega esses dados".

Para que os sistemas de inteligência artificial funcionem bem, eles precisam ser treinados com uma quantidade monstruosa de informações diversas, para que aprendam o que dizer e respeitem a diversidade de ideias. Em tese, todas as suas produções são inéditas, por isso os desenvolvedores se valem do conceito jurídico americano do "uso justo" ("fair use"), que protege as big techs há pelo menos duas décadas, quando, por exemplo, rastreiam a Internet inteira para fazer um buscador funcionar.

Por essa regra, os produtos digitais exibiriam apenas pequenos trechos desses conteúdos, insuficientes para configurar uma concorrência. Mas em seu processo, o New York Times afirma que as plataformas de IA exibiriam literalmente grandes nacos de sua produção, inclusive de material exclusivo a seus assinantes. A OpenAI nega.

É um desafio para a Justiça dos EUA, pois as leis do país proíbem a cópia de conteúdo, mas permitem que se criem produtos combinando elementos de diferentes fontes, sem criar concorrência direta. As plataformas de IA fazem as duas coisas.

 

Ameaça à democracia

Nesse pântano jurídico, grupos políticos já vêm se esbaldando nos recursos da inteligência artificial para convencer -ou mais especificamente confundir- os eleitores.

O TSE tenta encontrar formas de pelo menos dificultar que isso aconteça nas eleições brasileiras. No dia 4, publicou dez minutas de resoluções para esse fim. Esses textos estarão em consulta pública até o dia 19 deste mês. Entre 23 e 25 de janeiro, ocorrerão audiências abertas na Corte para o aperfeiçoamento das normas.

Infelizmente, criar ótimas regras é relativamente fácil. Verificar seu cumprimento, por outro lado, é bem difícil, especialmente nas campanhas não-oficiais, realizadas por eleitores diretamente instruídos pelos candidatos ou espontaneamente. Com isso, o gigantesco problema de disseminação de fake news e discursos de ódio em redes sociais (que fazem muito menos do que deveriam para combater isso) agora deve ser potencializado pelo uso da inteligência artificial igualmente não-regulada.

A solução exige, portanto, a participação da Justiça, dos veículos de comunicação e das big techs das redes sociais e de inteligência artificial. Felizmente há também movimentos positivos de consenso.

Segundo o mesmo New York Times, a Apple, que está atrasada no campo da IA, estaria tentando costurar acordos financeiros para justamente usar os conteúdos de grandes empresas de comunicação para o treinamento da sua plataforma em desenvolvimento. A notícia só não é totalmente positiva porque ela estaria interessada em consumir esse conteúdo, mas não em responder por qualquer problema derivado dele, o que está deixando os editores desses veículos desconfortáveis. E eles andam bem desconfiados por seus acordos prévios com o Vale do Silício, que, ao longo dos anos, favoreceram as big techs, enquanto viam seus negócios minguarem.

Tudo isso envolve interesses de bilhões de dólares e moldará a sociedade decisivamente nos próximos anos. É preciso um desenvolvimento responsável e transparente da tecnologia e uma enorme quantidade de boas informações. "Pode ser que a gente tenha modelos de inteligência artificial que sejam focados na maldade", sugere Crespo. "É que ninguém parou para fazer isso ainda ou talvez ninguém tenha tanto dinheiro para isso."

Alguns acreditam que a solução seria educar a população para não acreditar tão facilmente no que veem nas redes sociais e agora na inteligência artificial. No mundo ideal, isso resolveria o problema. Mas isso simplesmente não vai acontecer e as pessoas continuarão sendo manipuladas, agora possivelmente ainda mais.

Os já citados atores precisam dar as mãos para evitar o pior. Os veículos de comunicação devem alimentar a IA, mas de maneira justa, sem que isso ameace sua sobrevivência. As big techs precisam se abrir a esses acordos financeiros e se esforçar muito mais na transparência de seus sistemas e no respeito aos usuários e à própria democracia. E a Justiça precisa encontrar meios de regular tudo isso, sem ameaçar o avanço tecnológico.

Em um mundo tão digitalizado, a democracia depende do sucesso dessa união.

 

Opinião por Paulo Silvestre

É jornalista, consultor e palestrante de customer experience, mídia, cultura e transformação digital. É professor da Universidade Mackenzie e da PUC–SP, e articulista do Estadão. Foi executivo na AOL, Editora Abril, Estadão, Saraiva e Samsung. Mestre em Tecnologias da Inteligência e Design Digital pela PUC-SP, é LinkedIn Top Voice desde 2016.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.