Acúmulo de poder das big techs é preocupação urgente, diz filósofo da IA


Mark Coeckelbergh, um dos maiores especialistas em ética e IA do mundo, conversou com o ‘Estadão’ em passagem pelo Brasil

Por Bruna Arimathea
Foto: Daniel Teixeira/Estadão
Entrevista comMark CoeckelberghProfessor de Filosofia da mídia na Universidade de Viena

O crescimento acelerado da inteligência artificial (IA) no mundo, principalmente após o boom do ChatGPT, é benéfico para a humanidade. No entanto, o desenvolvimento precisa ocorrer sobre bases éticas e em benefício do bem comum - algo que pode estar sendo deixado para trás pelas gigantes de tecnologia. Essa é a opinião do belga Mark Coeckelbergh, filósofo e um dos principais pensadores em IA atualmente.

Professor de Filosofia da Mídia e Tecnologia da Universidade de Viena, na Áustria, Coeckelbergh foi um dos especialistas que ajudou a formular a regulação de IA na União Europeia, uma das primeiras do tipo no mundo e inspiração para o debate brasileiro.

No País para uma série de eventos, que inclui a divulgação de seu livro “Ética na IA”, publicado pela editora Ubu no Brasil, Coeckelbergh conversou com o Estadão sobre a atuação das grandes empresas em IA, o desenvolvimento rápido da tecnologia e a importância da sua regulação.

continua após a publicidade

Veja os melhores momentos da entrevista:

Qual é sua principal preocupação em relação à ética na IA atualmente?

A preocupação mais urgente é o acúmulo de poderes de grandes empresas de tecnologia e, relacionado a isso, a falta de decisão democrática sobre IA. A longo prazo, é importante também olhar os custos ambientais da IA. Esse é um tema que precisa de mais atenção.

continua após a publicidade

De onde deve partir a iniciativa de desenvolvimento ético de IA?

As empresas tomam iniciativas e é bom que eles façam isso, mas definitivamente não é o suficiente. Então, precisamos de governos entrando no assunto, precisamos de políticas robustas para regular a IA. A forma como isso está sendo feito no momento é bastante tecnocrática. Nós temos especialistas, e eu me incluo nisso, que aconselham governos para conversar, mas a regulamentação é feita fora dos fóruns usuais e democráticos. Precisamos envolver mais pessoas também para a realização de uma regulação para a IA.

Como a IA pode ter influência no processo democrático?

continua após a publicidade

A IA pode causar desinformação, polarização e fragmentação de um cenário, de modo que cada um fale apenas com seus próprios círculos. As pessoas não estão realmente interessadas nos pontos de vista umas das outras quando você tem essa situação e, com isso, a democracia é prejudicada. O problema é que, se houver muita desinformação e polarização, as pessoas não saberão mais em que acreditar e ficarão inseguras quanto à qualidade do conhecimento que encontrarem e à confiabilidade das informações, também encontradas online, por exemplo. E quando isso acontece, cria-se uma esfera que está pronta para abordagens mais autoritárias. Não é possível ter democracia e falar sobre as coisas se você não sabe do que está falando se a base do que você tem em comum está danificada.

Coeckelberg foi um dos conselheiros na discussão da lei que regulamenta a IA na Europa Foto: Daniel Teixeira/Estadão

Ainda é possível desenvolver IAs com princípios éticos?

continua após a publicidade

Há sempre essa diferença entre a velocidade da tecnologia e a velocidade da ética. Mas eu estou otimista que ainda podemos fazer algo, porque algumas pessoas têm essa ideia de que a IA é uma espécie de força autônoma que vai para um futuro determinado. E eu acho que o que precisamos é uma outra visão da IA, sendo sempre conectada com os humanos.

Seu livro sobre Ética foi lançado antes do ChatGPT e o ‘boom’ da IA generativa. Se o sr. tivesse que fazer um acréscimo ao livro após esse fenômeno, qual seria?

Quando eu escrevi o livro sobre a ética da IA, nós não tínhamos coisas como a IA generativa, então, agora, esses problemas poderiam ser tratados mais profundamente diante dessas novas tecnologias. Também temos, agora, problemas mais concretos, por exemplo, de plágio e sobre a criatividade. Qual é o lugar da criatividade humana, já que essas IAs também podem criar imagens, podem escrever? Há novas perguntas sobre isso.

continua após a publicidade

A evolução da IA tem tido um crescimento meteórico nos últimos anos. Esse crescimento é sustentável?

Definitivamente, a forma como a IA está se desenvolvendo não é sustentável. Não apenas no campo da ética, mas também em um sentido de custos ambientais. Nós precisamos fazer algo sobre isso. Eu acho também que a IA não é o único problema que nós temos. Basicamente, o problema das mudanças climáticas é enorme e nós também temos que pensar sobre como a IA se relaciona com isso. Então, temos que desenvolver a IA de uma forma mais sustentável, de uma forma que possa contribuir para mitigar mudanças climáticas em vez de fazer as coisas piorarem.

continua após a publicidade

É possível ter crescimento sustentável sem regulação?

Há sempre essa narrativa de competição, tanto dentro de países, com as diferentes empresas competindo, mas também geopoliticamente, como os EUA contra a China. Eu acho que é uma forma muito particular de olhar as coisas, e também há sempre o argumento de que a inovação é difícil se você tem uma regulação. Isso não é verdade. Eu acho que podemos ter um nível mínimo de regulação, onde os princípios éticos e políticos são respeitados, onde a IA é mais democrática, e ao mesmo tempo, ter campo de jogo para as empresas. No final, é bom para o negócio também se os sistemas são mais éticos e mais sustentáveis, então elas também podem ganhar em longo prazo.

O Brasil é um dos países que está tentando regulamentar a IA, a exemplo do que foi feito na Europa. Qual é a importância de um país como o Brasil ter suas próprias regulamentações sobre isso?

O Brasil é um país grande, com um grande mercado, então é importante também ter uma regulação. Também é importante que países como o Brasil possam ter um papel construtivo na IA, no sentido de que eles podem estimular o desenvolvimento de tecnologias éticas. Porque o que está acontecendo agora é que as grandes empresas de tecnologia, principalmente dos EUA, estão em uma situação em que elas exportam suas tecnologias para a Europa, para o Brasil e assim por diante. E é importante que, em vez de apenas nos conformarmos com  isso, nós também façamos algo sobre isso. Há muita criatividade, há muitas pessoas no Brasil que podem fazer isso e eu acho que é possível.

Acabamos de ver a IA ser reconhecida com dois prêmios Nobel na última semana. Veremos a IA assumir a liderança em outras áreas importantes de nossas vidas?

Nós tivemos dois grandes prêmios em física e química em IA e eu acho que isso indica o papel central que a tecnologia tem tomado em nossas sociedades. Isso é uma coisa muito contundente e o que nos diz é que devemos nos esforçar o suficiente para encontrar uma maneira de lidar bem com a IA e imaginar nosso futuro. Um futuro não contra a tecnologia, não sem a tecnologia, mas um futuro com uma tecnologia que é sustentável e que contribui positivamente para as vidas das pessoas e para o bem comum.

O crescimento acelerado da inteligência artificial (IA) no mundo, principalmente após o boom do ChatGPT, é benéfico para a humanidade. No entanto, o desenvolvimento precisa ocorrer sobre bases éticas e em benefício do bem comum - algo que pode estar sendo deixado para trás pelas gigantes de tecnologia. Essa é a opinião do belga Mark Coeckelbergh, filósofo e um dos principais pensadores em IA atualmente.

Professor de Filosofia da Mídia e Tecnologia da Universidade de Viena, na Áustria, Coeckelbergh foi um dos especialistas que ajudou a formular a regulação de IA na União Europeia, uma das primeiras do tipo no mundo e inspiração para o debate brasileiro.

No País para uma série de eventos, que inclui a divulgação de seu livro “Ética na IA”, publicado pela editora Ubu no Brasil, Coeckelbergh conversou com o Estadão sobre a atuação das grandes empresas em IA, o desenvolvimento rápido da tecnologia e a importância da sua regulação.

Veja os melhores momentos da entrevista:

Qual é sua principal preocupação em relação à ética na IA atualmente?

A preocupação mais urgente é o acúmulo de poderes de grandes empresas de tecnologia e, relacionado a isso, a falta de decisão democrática sobre IA. A longo prazo, é importante também olhar os custos ambientais da IA. Esse é um tema que precisa de mais atenção.

De onde deve partir a iniciativa de desenvolvimento ético de IA?

As empresas tomam iniciativas e é bom que eles façam isso, mas definitivamente não é o suficiente. Então, precisamos de governos entrando no assunto, precisamos de políticas robustas para regular a IA. A forma como isso está sendo feito no momento é bastante tecnocrática. Nós temos especialistas, e eu me incluo nisso, que aconselham governos para conversar, mas a regulamentação é feita fora dos fóruns usuais e democráticos. Precisamos envolver mais pessoas também para a realização de uma regulação para a IA.

Como a IA pode ter influência no processo democrático?

A IA pode causar desinformação, polarização e fragmentação de um cenário, de modo que cada um fale apenas com seus próprios círculos. As pessoas não estão realmente interessadas nos pontos de vista umas das outras quando você tem essa situação e, com isso, a democracia é prejudicada. O problema é que, se houver muita desinformação e polarização, as pessoas não saberão mais em que acreditar e ficarão inseguras quanto à qualidade do conhecimento que encontrarem e à confiabilidade das informações, também encontradas online, por exemplo. E quando isso acontece, cria-se uma esfera que está pronta para abordagens mais autoritárias. Não é possível ter democracia e falar sobre as coisas se você não sabe do que está falando se a base do que você tem em comum está danificada.

Coeckelberg foi um dos conselheiros na discussão da lei que regulamenta a IA na Europa Foto: Daniel Teixeira/Estadão

Ainda é possível desenvolver IAs com princípios éticos?

Há sempre essa diferença entre a velocidade da tecnologia e a velocidade da ética. Mas eu estou otimista que ainda podemos fazer algo, porque algumas pessoas têm essa ideia de que a IA é uma espécie de força autônoma que vai para um futuro determinado. E eu acho que o que precisamos é uma outra visão da IA, sendo sempre conectada com os humanos.

Seu livro sobre Ética foi lançado antes do ChatGPT e o ‘boom’ da IA generativa. Se o sr. tivesse que fazer um acréscimo ao livro após esse fenômeno, qual seria?

Quando eu escrevi o livro sobre a ética da IA, nós não tínhamos coisas como a IA generativa, então, agora, esses problemas poderiam ser tratados mais profundamente diante dessas novas tecnologias. Também temos, agora, problemas mais concretos, por exemplo, de plágio e sobre a criatividade. Qual é o lugar da criatividade humana, já que essas IAs também podem criar imagens, podem escrever? Há novas perguntas sobre isso.

A evolução da IA tem tido um crescimento meteórico nos últimos anos. Esse crescimento é sustentável?

Definitivamente, a forma como a IA está se desenvolvendo não é sustentável. Não apenas no campo da ética, mas também em um sentido de custos ambientais. Nós precisamos fazer algo sobre isso. Eu acho também que a IA não é o único problema que nós temos. Basicamente, o problema das mudanças climáticas é enorme e nós também temos que pensar sobre como a IA se relaciona com isso. Então, temos que desenvolver a IA de uma forma mais sustentável, de uma forma que possa contribuir para mitigar mudanças climáticas em vez de fazer as coisas piorarem.

É possível ter crescimento sustentável sem regulação?

Há sempre essa narrativa de competição, tanto dentro de países, com as diferentes empresas competindo, mas também geopoliticamente, como os EUA contra a China. Eu acho que é uma forma muito particular de olhar as coisas, e também há sempre o argumento de que a inovação é difícil se você tem uma regulação. Isso não é verdade. Eu acho que podemos ter um nível mínimo de regulação, onde os princípios éticos e políticos são respeitados, onde a IA é mais democrática, e ao mesmo tempo, ter campo de jogo para as empresas. No final, é bom para o negócio também se os sistemas são mais éticos e mais sustentáveis, então elas também podem ganhar em longo prazo.

O Brasil é um dos países que está tentando regulamentar a IA, a exemplo do que foi feito na Europa. Qual é a importância de um país como o Brasil ter suas próprias regulamentações sobre isso?

O Brasil é um país grande, com um grande mercado, então é importante também ter uma regulação. Também é importante que países como o Brasil possam ter um papel construtivo na IA, no sentido de que eles podem estimular o desenvolvimento de tecnologias éticas. Porque o que está acontecendo agora é que as grandes empresas de tecnologia, principalmente dos EUA, estão em uma situação em que elas exportam suas tecnologias para a Europa, para o Brasil e assim por diante. E é importante que, em vez de apenas nos conformarmos com  isso, nós também façamos algo sobre isso. Há muita criatividade, há muitas pessoas no Brasil que podem fazer isso e eu acho que é possível.

Acabamos de ver a IA ser reconhecida com dois prêmios Nobel na última semana. Veremos a IA assumir a liderança em outras áreas importantes de nossas vidas?

Nós tivemos dois grandes prêmios em física e química em IA e eu acho que isso indica o papel central que a tecnologia tem tomado em nossas sociedades. Isso é uma coisa muito contundente e o que nos diz é que devemos nos esforçar o suficiente para encontrar uma maneira de lidar bem com a IA e imaginar nosso futuro. Um futuro não contra a tecnologia, não sem a tecnologia, mas um futuro com uma tecnologia que é sustentável e que contribui positivamente para as vidas das pessoas e para o bem comum.

O crescimento acelerado da inteligência artificial (IA) no mundo, principalmente após o boom do ChatGPT, é benéfico para a humanidade. No entanto, o desenvolvimento precisa ocorrer sobre bases éticas e em benefício do bem comum - algo que pode estar sendo deixado para trás pelas gigantes de tecnologia. Essa é a opinião do belga Mark Coeckelbergh, filósofo e um dos principais pensadores em IA atualmente.

Professor de Filosofia da Mídia e Tecnologia da Universidade de Viena, na Áustria, Coeckelbergh foi um dos especialistas que ajudou a formular a regulação de IA na União Europeia, uma das primeiras do tipo no mundo e inspiração para o debate brasileiro.

No País para uma série de eventos, que inclui a divulgação de seu livro “Ética na IA”, publicado pela editora Ubu no Brasil, Coeckelbergh conversou com o Estadão sobre a atuação das grandes empresas em IA, o desenvolvimento rápido da tecnologia e a importância da sua regulação.

Veja os melhores momentos da entrevista:

Qual é sua principal preocupação em relação à ética na IA atualmente?

A preocupação mais urgente é o acúmulo de poderes de grandes empresas de tecnologia e, relacionado a isso, a falta de decisão democrática sobre IA. A longo prazo, é importante também olhar os custos ambientais da IA. Esse é um tema que precisa de mais atenção.

De onde deve partir a iniciativa de desenvolvimento ético de IA?

As empresas tomam iniciativas e é bom que eles façam isso, mas definitivamente não é o suficiente. Então, precisamos de governos entrando no assunto, precisamos de políticas robustas para regular a IA. A forma como isso está sendo feito no momento é bastante tecnocrática. Nós temos especialistas, e eu me incluo nisso, que aconselham governos para conversar, mas a regulamentação é feita fora dos fóruns usuais e democráticos. Precisamos envolver mais pessoas também para a realização de uma regulação para a IA.

Como a IA pode ter influência no processo democrático?

A IA pode causar desinformação, polarização e fragmentação de um cenário, de modo que cada um fale apenas com seus próprios círculos. As pessoas não estão realmente interessadas nos pontos de vista umas das outras quando você tem essa situação e, com isso, a democracia é prejudicada. O problema é que, se houver muita desinformação e polarização, as pessoas não saberão mais em que acreditar e ficarão inseguras quanto à qualidade do conhecimento que encontrarem e à confiabilidade das informações, também encontradas online, por exemplo. E quando isso acontece, cria-se uma esfera que está pronta para abordagens mais autoritárias. Não é possível ter democracia e falar sobre as coisas se você não sabe do que está falando se a base do que você tem em comum está danificada.

Coeckelberg foi um dos conselheiros na discussão da lei que regulamenta a IA na Europa Foto: Daniel Teixeira/Estadão

Ainda é possível desenvolver IAs com princípios éticos?

Há sempre essa diferença entre a velocidade da tecnologia e a velocidade da ética. Mas eu estou otimista que ainda podemos fazer algo, porque algumas pessoas têm essa ideia de que a IA é uma espécie de força autônoma que vai para um futuro determinado. E eu acho que o que precisamos é uma outra visão da IA, sendo sempre conectada com os humanos.

Seu livro sobre Ética foi lançado antes do ChatGPT e o ‘boom’ da IA generativa. Se o sr. tivesse que fazer um acréscimo ao livro após esse fenômeno, qual seria?

Quando eu escrevi o livro sobre a ética da IA, nós não tínhamos coisas como a IA generativa, então, agora, esses problemas poderiam ser tratados mais profundamente diante dessas novas tecnologias. Também temos, agora, problemas mais concretos, por exemplo, de plágio e sobre a criatividade. Qual é o lugar da criatividade humana, já que essas IAs também podem criar imagens, podem escrever? Há novas perguntas sobre isso.

A evolução da IA tem tido um crescimento meteórico nos últimos anos. Esse crescimento é sustentável?

Definitivamente, a forma como a IA está se desenvolvendo não é sustentável. Não apenas no campo da ética, mas também em um sentido de custos ambientais. Nós precisamos fazer algo sobre isso. Eu acho também que a IA não é o único problema que nós temos. Basicamente, o problema das mudanças climáticas é enorme e nós também temos que pensar sobre como a IA se relaciona com isso. Então, temos que desenvolver a IA de uma forma mais sustentável, de uma forma que possa contribuir para mitigar mudanças climáticas em vez de fazer as coisas piorarem.

É possível ter crescimento sustentável sem regulação?

Há sempre essa narrativa de competição, tanto dentro de países, com as diferentes empresas competindo, mas também geopoliticamente, como os EUA contra a China. Eu acho que é uma forma muito particular de olhar as coisas, e também há sempre o argumento de que a inovação é difícil se você tem uma regulação. Isso não é verdade. Eu acho que podemos ter um nível mínimo de regulação, onde os princípios éticos e políticos são respeitados, onde a IA é mais democrática, e ao mesmo tempo, ter campo de jogo para as empresas. No final, é bom para o negócio também se os sistemas são mais éticos e mais sustentáveis, então elas também podem ganhar em longo prazo.

O Brasil é um dos países que está tentando regulamentar a IA, a exemplo do que foi feito na Europa. Qual é a importância de um país como o Brasil ter suas próprias regulamentações sobre isso?

O Brasil é um país grande, com um grande mercado, então é importante também ter uma regulação. Também é importante que países como o Brasil possam ter um papel construtivo na IA, no sentido de que eles podem estimular o desenvolvimento de tecnologias éticas. Porque o que está acontecendo agora é que as grandes empresas de tecnologia, principalmente dos EUA, estão em uma situação em que elas exportam suas tecnologias para a Europa, para o Brasil e assim por diante. E é importante que, em vez de apenas nos conformarmos com  isso, nós também façamos algo sobre isso. Há muita criatividade, há muitas pessoas no Brasil que podem fazer isso e eu acho que é possível.

Acabamos de ver a IA ser reconhecida com dois prêmios Nobel na última semana. Veremos a IA assumir a liderança em outras áreas importantes de nossas vidas?

Nós tivemos dois grandes prêmios em física e química em IA e eu acho que isso indica o papel central que a tecnologia tem tomado em nossas sociedades. Isso é uma coisa muito contundente e o que nos diz é que devemos nos esforçar o suficiente para encontrar uma maneira de lidar bem com a IA e imaginar nosso futuro. Um futuro não contra a tecnologia, não sem a tecnologia, mas um futuro com uma tecnologia que é sustentável e que contribui positivamente para as vidas das pessoas e para o bem comum.

Entrevista por Bruna Arimathea

É jornalista formada pela Universidade de São Paulo (USP) e pós graduanda em História Contemporânea e Relações Internacionais pela PUC-PR. Repórter de Tecnologia no Estadão desde 2021 e coautora do podcast "Alcântara: o desastre espacial brasileiro".

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.