‘A inteligência artificial geral é uma distração dos problemas reais’, diz Evgeny Morozov


Autor é crítico do poder das grandes empresas de tecnologia do Vale do Silício

Por Guilherme Guerra
Atualização:
Foto: WERTHER
Entrevista comEvgeny MorozovAutor de 'Big Tech: A ascensão dos dados e a morte da política'

A chegada do ChatGPT, lançado em novembro do ano passado pela startup americana OpenAI, acendeu um alerta que, há décadas, é tema de filme de ficção-científica: a possibilidade do surgimento de uma inteligência artificial geral (AGI, na sigla em inglês), sistema capaz de realizar uma série de tarefas para as quais não foi criada para realizar inicialmente. Ou seja, teria capacidade igual ou superior a humana.

Esse temor levou um conjunto de acadêmicos e empreendedores do Vale do Silício a assinar uma carta, em março deste ano, pedindo que as empresas de inteligência artificial (como a própria OpenAI e o rival Google) pausassem as pesquisas com inteligência artificial. Entre os signatários estão o bilionário e homem mais rico do mundo, Elon Musk, e o historiador Yuval Harari.

continua após a publicidade

Para uma parcela dos pesquisadores de tecnologia, esse posicionamento é uma cortina de fumaça para esconder os reais problemas da IA no mundo, como as condições de trabalho das pessoas em países em desenvolvimento chamadas para treinar esses modelos ou os custos energéticos para manter os servidores ligados.

“A AGI é uma distração. Essas companhias não querem que saibamos como a IA é feita”, afirma ao Estadão o bielorrusso Evgeny Morozov, autor de Big Tech: A ascensão dos dados e a morte da política (Ed. Ubu, 192 p., 2018), onde faz uma crítica ferrenha das grandes corporações do Vale do Silício e do neoliberalismo em uma série de ensaios. Em 2011 e 2013, Morozov publicou o Save Everything, The Net Delusion: The Dark Side of Internet Freedom and To Save Everything e Click Here: The Folly of Technological Solutionism, dois livros que o credenciaram como um dos principais pensadores sobre tecnologia no mundo.

Nesta segunda-feira, 28, ele participou de uma conferência em São Paulo, onde está hospedado, realizada pelo Comitê Gestor da Internet no Brasil (CGI) e pelo Núcleo de Informação e Coordenação do Ponto BR (NIC). Seu trabalho mais recente é o podcast Santiago Boys, em que conta a história do Projeto Cybersyn, tentativa do governo do chileno Salvador Allende (1970-1973) de criar uma “internet socialista”.

continua após a publicidade

“Essa ideia de uma inteligência artificial geral é uma operação retórica que permite as empresas de tecnologia a distrair o público das questões mais urgentes sobre quais são os danos que já estão ocorrendo por causa dos sistemas. É uma operação de distração, o que é muito bem-sucedido”, explica Morozov.

Ele também falou sobre o papel da União Europeia em meio à disputa entre China e Estados Unidos e o papel de governos para reduzir o poder de mercado das Big Techs. Abaixo, leia trechos da entrevista ao Estadão.

O sr. argumentou antes que deveríamos ‘odiar as grandes empresas de tecnologia’. Depois da pandemia de covid-19, muitas pessoas pensaram que essas empresas eram essenciais graças às ferramentas digitais utilizadas no isolamento. Elas provaram seu valor de alguma forma?

continua após a publicidade

Devemos odiá-las pelos motivos certos. Para mim, as questões que têm a ver com o poder das Big Techs são os custos invisíveis e os de longo prazo. Isso não significa que, em determinados períodos, elas não possam ser úteis. Muitas coisas que usamos têm um enorme custo invisível. Podemos dirigir carros muito grandes e eles serão muito confortáveis, mas destruirão o meio ambiente. A lente por meio da qual se deve olhar para as Big Techs é a seguinte: no curto prazo, elas claramente preenchem um determinado nicho, que pode existir porque o Estado falhou e negligenciou o investimento na criação de alternativas robustas. Os correios se desenvolveram porque havia uma necessidade. Se não o desenvolvêssemos, certamente algum agente privado acabaria se oferecendo para resolvê-lo. Então, para mim, o fato de haver alguém preenchendo a lacuna não é um argumento a favor.

Autor Evgeny Morozov é crítico das Big Techs e pede a regulamentação da inteligência artificial  Foto: Werther Santana/Estadão - 28/8/2023

Os governos deveriam investir em tecnologia própria como alternativa às companhias?

continua após a publicidade

A tecnologia é uma mistura de coisas heterogêneas muito diferentes. Devemos tentar separar os elementos de infraestrutura da camada de aplicativos. Portanto, a camada de apps deve ser aberta para qualquer pessoa - qualquer um deve ser capaz de criar um aplicativo. Não acho que deva haver nenhuma barreira no caminho, embora ela exista na economia digital de agora. Para desenvolver bons apps, você precisa de desenvolvedores fortes e com boa formação. E devido à forma como o mercado funciona, praticamente todos eles vão trabalhar para o setor privado. Portanto, uma ONG, uma entidade pública já está em desvantagem por padrão. Se olharmos abaixo da camada de aplicativos e repararmos nas infraestruturas, estou absolutamente convencido de que a única alternativa para a dependência aos serviços de IA, de computação em nuvem e de computação quântica das grandes empresas é investir na construção de nossas próprias infraestruturas públicas. Assim, elas poderão ser regulamentadas e abertas a qualquer pessoa que queira contratar o fornecimento de IA, de modo que não seja possível proibir o fornecimento de determinados serviços.

Especialistas apontam que essas empresas de tecnologia cresceram com a ajuda de governos ou pelo menos sob a negligência deles. Esses mesmos governos deveriam fazer algo em relação a elas?

Essas empresas cresceram, em parte, porque conseguiram alavancar os recursos de alguns governos. No caso dos Estados Unidos, de onde vêm a maioria dessas empresas, elas aproveitaram subsídios e contratos com o setor de Defesa para fazer parte da política industrial. E a razão pela qual esse setor existe é porque houve uma certa decisão estratégica de que é um setor importante que ajuda a economia americana e que certas decisões começaram a ser tomadas para se beneficiar. Mas elas também se beneficiaram dos esforços dos consumidores. Por exemplo, o Google nunca se preocupou em pagar ninguém para indexar seu conteúdo.

continua após a publicidade

Em última análise, tudo o que eu estava dizendo é que a razão pela qual esse setor de tecnologia existe é porque ele se aproveita dos problemas da sociedade. E, nesse caso, o problema da sociedade era a existência de qualquer infraestrutura alternativa para organizar o conhecimento online.

O mesmo acontece com a OpenAI, quando, no momento, essas empresas estão apenas circulando e sugando todos os dados que podem. O argumento é apenas fazer isso em tal escala que as companhias simplesmente afirmam que estão resolvendo o problema do câncer e da fome no mundo. Portanto, deveríamos simplesmente alimentar o modelo com todos os dados que pudermos adicionar.

continua após a publicidade

O problema da IA está nos tipos de dados e a quem pertencem?

A razão pela qual a OpenAI pode existir, além de todos os bilhões aportados pela Microsoft e outros investidores, é porque, em última análise, ninguém a responsabilizou pelas informações que entram no sistema. No meu universo dos sonhos, serviços como os modelos amplos de linguagem (LLM, na sigla em inglês) também serão oferecidos por instituições públicas. No Brasil, se você olhar a maioria dos artigos acadêmicos, os artigos são gratuitos, porque são de acesso aberto. Mas esse é um ambiente que, nas condições atuais, beneficiaria empresas como a OpenAI, porque ela poderia vir e sugar todos os dados, criar o modelo de IA e depois vendê-la de volta ao governo para o Ministério da Educação. Nessas condições, para mim, está claro que seria muito mais conveniente e lógico, do ponto de vista do valor público, criar uma equivalência no setor público que teria apenas seus próprios LLM para oferecê-los às bibliotecas, universidades e estudantes.

No meu universo dos sonhos, serviços como os modelos amplos de linguagem (LLM, na sigla em inglês) também serão oferecidos por instituições públicas

Evgeny Morozov

A União Europeia está tentando criar uma terceira via na corrida da inteligência artificial, fora da bipolaridade EUA-China. Isso é possível?

Na Europa, o que se vê são pessoas que, por um lado, estão completamente corretas, dizendo que as grandes plataformas de tecnologia têm muito poder de mercado, do qual estão abusando. Então, essa parcela diz: “Vamos policiar o poder de mercado”. Mas não há nada que diga que essas empresas não se tornaram o que são por causa da concorrência.

Isso é o que os europeus não entendem sobre os americanos. Os americanos dizem uma coisa e depois fazem outra. No caso das grandes empresas de tecnologia, esse setor surgiu devido a uma atitude muito favorável de Wall Street, do Pentágono e do governo americano, que mais ou menos consideravam as Big Techs, durante os anos 1990 e 2000, como o setor do futuro. Essas firmas receberam subsídios, tiveram acesso barato ao dinheiro, obtiveram todos os tipos de benefícios que não tinham nada a ver com concorrência. E elas, é claro, aproveitam a influência geopolítica dos Estados Unidos. Assim, toda vez que alguém quisesse regulamentar essas empresas, receberia politicamente apenas um tapa na mão. Foi sob essas condições que o Vale do Silício floresceu.

Na Europa, eles dizem querer seguir as regras e impor regras mais rígidas. Então, de alguma forma mágica, uma pequena startup em Berlim poderá competir com o Google - onde Eric Schmidt (ex-presidente executivo do Google) tem assento em todos os conselhos do Pentágono. Como uma pequena startup de Berlim pode competir com esse tipo de influência geopolítica? Há uma certa ingenuidade ou eles simplesmente não estão interessados em resolver problemas na Europa.

A União Europeia também está discutindo a regulamentação da IA, assim como o Brasil. O sr. acha que isso é suficiente?

Não, não é o suficiente. Quero dizer: é o suficiente porque precisamos garantir que não haja abusos de poder, que são desenfreados no mundo das grandes tecnologias. Depois de 20 anos, já sabemos qual é a estratégia das Big Techs. Elas querem fazer o mínimo por meio de obrigações legais para ganhar o máximo de dinheiro que puderem. Quando se trata de IA, sabemos mais ou menos o que isso significa: elas contratarão algumas pessoas mal pagas no Quênia, que analisarão as imagens e alimentarão o conjunto de dados com todos os dados que encontrarem, apenas resolvendo metade do problema. E os serviços vão ser refinados à medida que avançarem. Cada etapa desse processo tem um possível dilema legal, ético ou moral de algum tipo. Algo precisa ser feito a respeito disso.

O sr. disse que os americanos fazem uma coisa e dizem outra. Há alguns meses, partes do Vale do Silício e Elon Musk assinaram uma carta dizendo para interromper a pesquisa de IA. Qual é a sua opinião sobre isso?

O mundo da tecnologia tem vários grupos de pessoas. Há pessoas que são genuinamente bem-intencionadas, mas ingênuas. Muitas delas são acadêmicos sólidos…

O sr. pode dizer o nome deles?

Geoffrey Hinton. Ele é facilmente um cara que eu acho que é mais ou menos bem-humorado, tem intenções nobres. Ele é bastante arrogante e rejeita abordagens alternativas à IA. Mas, de modo geral, seu coração está no lugar certo. E ele acordou tarde demais. E sem ter uma boa análise das relações de poder e de como funciona o capitalismo. Ele realmente quer alertá-los sobre os perigos que estamos enfrentando e, ao mesmo tempo, ter algo registrado que lhe permita dizer, cinco anos depois, que estava certo. Ele é mais um caso extremo de pessoas ingênuas.

Também há muitas pessoas que são apenas acadêmicos comuns que trabalham em universidades e acham que o mundo é perigoso. Elas também são um pouco arrogantes, pois superestimam o que a IA pode fazer atualmente. Mas há pessoas como Elon Musk e outros que representam o lado comercial da IA, que basicamente entendem que precisam desse escudo retórico e ideológico contra os esforços que inevitavelmente ocorrerão nos próximos anos para tentar enfraquecer ou regular as empresas de tecnologia que a estão construindo.

Para eles, essa ideia de uma inteligência artificial geral (AGI, na sigla em inglês) é uma operação retórica que lhes permite distrair o público das questões mais urgentes sobre quais são os danos que já estão ocorrendo por causa dos sistemas. É uma operação de distração, o que é muito bem-sucedido. Porque, desde que atraiam pessoas e nomes suficientes, eles podem gerar manchetes, e é uma ótima história. Mas também é uma história que, por um lado, exagera o que eles podem fazer. Ela apresenta o atual setor de tecnologia como um ator responsável que, ao contrário da Cambridge Analytic, do Facebook e de outros, está de fato alertando o mundo sobre os perigos. E garante a essa empresa um lugar na mesa quando se trata de regulamentação, que é mais ou menos o que aconteceu quando as audiências no Congresso começaram.

O Sam Altman (presidente executivo da OpenAI) foi convidado a testemunhar no Congresso dos EUA e ele foi recebido 20 vezes melhor do que Mark Zuckerberg foi recebido apenas um ou dois anos antes. Portanto, nesse sentido, a estratégia está funcionando.

Quais são os reais problemas da IA?

Há duas coisas aqui. Uma é a negativa e a outra é a positiva. Quando se faz a salsicha, dizem que não se quer saber como ela é feita. Ou seja, parece que essas companhias não querem que saibamos como a IA é feita. Elas não querem saber sobre as pessoas no Quênia que têm que ver as fotos para treinar os modelos. É como se você não quisesse que o fabricante de salsichas assistisse a um documentário sobre como os animais são tratados antes de fazer a salsicha. Portanto, é um tipo de decisão racional muito pragmática da parte deles mistificar o processo. A AGI é uma distração. A ação real acontece em outro lugar, como os custos de criar essa quantidade de dados, falar sobre os custos de energia que entram no para operar todos os servidores. Além disso, os problemas são de política pública. E eles precisam fazer o que sempre foi discutido antes, que é tentar encontrar uma maneira alternativa de oferecer alguns dos serviços ao público, aos pobres e envolver empresas públicas e privadas como intermediárias.

A AGI é uma fraude?

A AGI é uma fraude na mesma medida em que a ideia de um mercado perfeito é uma fraude. Muitas pessoas também acreditam que existem mercados perfeitos ou que a oferta atende à demanda no mercado. Certas pessoas acham que o mercado é um dispositivo de processamento de informações, que faz isso muito melhor do que qualquer sistema alternativo e incorpora todas as motivações das pessoas. Quero dizer, há pessoas que atribuem ao mercado as mesmas qualidades mágicas que atribuiriam à IA. É uma visão equivocada porque, em última análise, não entende que tanto os tecnólogos quanto os mercados existem em um mundo em que seu poder é completamente esmagado pelas realidades e imperativos que não têm nada a ver com tecnologia ou economia, ou que têm a ver com geopolítica, alianças militares etc.

Portanto, entendo por que os tecnólogos precisam dessa visão da AGI para dar sentido ao que fazem todos os dias, assim como os economistas precisam ter essa visão do mercado perfeito para dar sentido ao que fazem. Mas, em última análise, existe a necessidade de a realidade entrar em ação em algum momento. Entendemos que os mercados não são perfeitos e que muitas vezes eles falham. E é por isso que criamos sistemas públicos que substituem os mercados. E é óbvio que a AGI fracassaria em muitos contextos. Precisamos questionar sua utilidade para a forma como queremos administrar o mundo. É pouco provável que a AGI venha a existir, mas, mesmo que isso aconteça, não sei se gostaríamos que isso acontecesse. Você não se sentiria confortável em um avião que voa completamente sem o piloto. Não sei se você gostaria que as decisões críticas sobre segurança nacional, saúde, educação fossem tomadas por uma AGI. E essas áreas são muito mais complexas do que pilotar um avião.

A chegada do ChatGPT, lançado em novembro do ano passado pela startup americana OpenAI, acendeu um alerta que, há décadas, é tema de filme de ficção-científica: a possibilidade do surgimento de uma inteligência artificial geral (AGI, na sigla em inglês), sistema capaz de realizar uma série de tarefas para as quais não foi criada para realizar inicialmente. Ou seja, teria capacidade igual ou superior a humana.

Esse temor levou um conjunto de acadêmicos e empreendedores do Vale do Silício a assinar uma carta, em março deste ano, pedindo que as empresas de inteligência artificial (como a própria OpenAI e o rival Google) pausassem as pesquisas com inteligência artificial. Entre os signatários estão o bilionário e homem mais rico do mundo, Elon Musk, e o historiador Yuval Harari.

Para uma parcela dos pesquisadores de tecnologia, esse posicionamento é uma cortina de fumaça para esconder os reais problemas da IA no mundo, como as condições de trabalho das pessoas em países em desenvolvimento chamadas para treinar esses modelos ou os custos energéticos para manter os servidores ligados.

“A AGI é uma distração. Essas companhias não querem que saibamos como a IA é feita”, afirma ao Estadão o bielorrusso Evgeny Morozov, autor de Big Tech: A ascensão dos dados e a morte da política (Ed. Ubu, 192 p., 2018), onde faz uma crítica ferrenha das grandes corporações do Vale do Silício e do neoliberalismo em uma série de ensaios. Em 2011 e 2013, Morozov publicou o Save Everything, The Net Delusion: The Dark Side of Internet Freedom and To Save Everything e Click Here: The Folly of Technological Solutionism, dois livros que o credenciaram como um dos principais pensadores sobre tecnologia no mundo.

Nesta segunda-feira, 28, ele participou de uma conferência em São Paulo, onde está hospedado, realizada pelo Comitê Gestor da Internet no Brasil (CGI) e pelo Núcleo de Informação e Coordenação do Ponto BR (NIC). Seu trabalho mais recente é o podcast Santiago Boys, em que conta a história do Projeto Cybersyn, tentativa do governo do chileno Salvador Allende (1970-1973) de criar uma “internet socialista”.

“Essa ideia de uma inteligência artificial geral é uma operação retórica que permite as empresas de tecnologia a distrair o público das questões mais urgentes sobre quais são os danos que já estão ocorrendo por causa dos sistemas. É uma operação de distração, o que é muito bem-sucedido”, explica Morozov.

Ele também falou sobre o papel da União Europeia em meio à disputa entre China e Estados Unidos e o papel de governos para reduzir o poder de mercado das Big Techs. Abaixo, leia trechos da entrevista ao Estadão.

O sr. argumentou antes que deveríamos ‘odiar as grandes empresas de tecnologia’. Depois da pandemia de covid-19, muitas pessoas pensaram que essas empresas eram essenciais graças às ferramentas digitais utilizadas no isolamento. Elas provaram seu valor de alguma forma?

Devemos odiá-las pelos motivos certos. Para mim, as questões que têm a ver com o poder das Big Techs são os custos invisíveis e os de longo prazo. Isso não significa que, em determinados períodos, elas não possam ser úteis. Muitas coisas que usamos têm um enorme custo invisível. Podemos dirigir carros muito grandes e eles serão muito confortáveis, mas destruirão o meio ambiente. A lente por meio da qual se deve olhar para as Big Techs é a seguinte: no curto prazo, elas claramente preenchem um determinado nicho, que pode existir porque o Estado falhou e negligenciou o investimento na criação de alternativas robustas. Os correios se desenvolveram porque havia uma necessidade. Se não o desenvolvêssemos, certamente algum agente privado acabaria se oferecendo para resolvê-lo. Então, para mim, o fato de haver alguém preenchendo a lacuna não é um argumento a favor.

Autor Evgeny Morozov é crítico das Big Techs e pede a regulamentação da inteligência artificial  Foto: Werther Santana/Estadão - 28/8/2023

Os governos deveriam investir em tecnologia própria como alternativa às companhias?

A tecnologia é uma mistura de coisas heterogêneas muito diferentes. Devemos tentar separar os elementos de infraestrutura da camada de aplicativos. Portanto, a camada de apps deve ser aberta para qualquer pessoa - qualquer um deve ser capaz de criar um aplicativo. Não acho que deva haver nenhuma barreira no caminho, embora ela exista na economia digital de agora. Para desenvolver bons apps, você precisa de desenvolvedores fortes e com boa formação. E devido à forma como o mercado funciona, praticamente todos eles vão trabalhar para o setor privado. Portanto, uma ONG, uma entidade pública já está em desvantagem por padrão. Se olharmos abaixo da camada de aplicativos e repararmos nas infraestruturas, estou absolutamente convencido de que a única alternativa para a dependência aos serviços de IA, de computação em nuvem e de computação quântica das grandes empresas é investir na construção de nossas próprias infraestruturas públicas. Assim, elas poderão ser regulamentadas e abertas a qualquer pessoa que queira contratar o fornecimento de IA, de modo que não seja possível proibir o fornecimento de determinados serviços.

Especialistas apontam que essas empresas de tecnologia cresceram com a ajuda de governos ou pelo menos sob a negligência deles. Esses mesmos governos deveriam fazer algo em relação a elas?

Essas empresas cresceram, em parte, porque conseguiram alavancar os recursos de alguns governos. No caso dos Estados Unidos, de onde vêm a maioria dessas empresas, elas aproveitaram subsídios e contratos com o setor de Defesa para fazer parte da política industrial. E a razão pela qual esse setor existe é porque houve uma certa decisão estratégica de que é um setor importante que ajuda a economia americana e que certas decisões começaram a ser tomadas para se beneficiar. Mas elas também se beneficiaram dos esforços dos consumidores. Por exemplo, o Google nunca se preocupou em pagar ninguém para indexar seu conteúdo.

Em última análise, tudo o que eu estava dizendo é que a razão pela qual esse setor de tecnologia existe é porque ele se aproveita dos problemas da sociedade. E, nesse caso, o problema da sociedade era a existência de qualquer infraestrutura alternativa para organizar o conhecimento online.

O mesmo acontece com a OpenAI, quando, no momento, essas empresas estão apenas circulando e sugando todos os dados que podem. O argumento é apenas fazer isso em tal escala que as companhias simplesmente afirmam que estão resolvendo o problema do câncer e da fome no mundo. Portanto, deveríamos simplesmente alimentar o modelo com todos os dados que pudermos adicionar.

O problema da IA está nos tipos de dados e a quem pertencem?

A razão pela qual a OpenAI pode existir, além de todos os bilhões aportados pela Microsoft e outros investidores, é porque, em última análise, ninguém a responsabilizou pelas informações que entram no sistema. No meu universo dos sonhos, serviços como os modelos amplos de linguagem (LLM, na sigla em inglês) também serão oferecidos por instituições públicas. No Brasil, se você olhar a maioria dos artigos acadêmicos, os artigos são gratuitos, porque são de acesso aberto. Mas esse é um ambiente que, nas condições atuais, beneficiaria empresas como a OpenAI, porque ela poderia vir e sugar todos os dados, criar o modelo de IA e depois vendê-la de volta ao governo para o Ministério da Educação. Nessas condições, para mim, está claro que seria muito mais conveniente e lógico, do ponto de vista do valor público, criar uma equivalência no setor público que teria apenas seus próprios LLM para oferecê-los às bibliotecas, universidades e estudantes.

No meu universo dos sonhos, serviços como os modelos amplos de linguagem (LLM, na sigla em inglês) também serão oferecidos por instituições públicas

Evgeny Morozov

A União Europeia está tentando criar uma terceira via na corrida da inteligência artificial, fora da bipolaridade EUA-China. Isso é possível?

Na Europa, o que se vê são pessoas que, por um lado, estão completamente corretas, dizendo que as grandes plataformas de tecnologia têm muito poder de mercado, do qual estão abusando. Então, essa parcela diz: “Vamos policiar o poder de mercado”. Mas não há nada que diga que essas empresas não se tornaram o que são por causa da concorrência.

Isso é o que os europeus não entendem sobre os americanos. Os americanos dizem uma coisa e depois fazem outra. No caso das grandes empresas de tecnologia, esse setor surgiu devido a uma atitude muito favorável de Wall Street, do Pentágono e do governo americano, que mais ou menos consideravam as Big Techs, durante os anos 1990 e 2000, como o setor do futuro. Essas firmas receberam subsídios, tiveram acesso barato ao dinheiro, obtiveram todos os tipos de benefícios que não tinham nada a ver com concorrência. E elas, é claro, aproveitam a influência geopolítica dos Estados Unidos. Assim, toda vez que alguém quisesse regulamentar essas empresas, receberia politicamente apenas um tapa na mão. Foi sob essas condições que o Vale do Silício floresceu.

Na Europa, eles dizem querer seguir as regras e impor regras mais rígidas. Então, de alguma forma mágica, uma pequena startup em Berlim poderá competir com o Google - onde Eric Schmidt (ex-presidente executivo do Google) tem assento em todos os conselhos do Pentágono. Como uma pequena startup de Berlim pode competir com esse tipo de influência geopolítica? Há uma certa ingenuidade ou eles simplesmente não estão interessados em resolver problemas na Europa.

A União Europeia também está discutindo a regulamentação da IA, assim como o Brasil. O sr. acha que isso é suficiente?

Não, não é o suficiente. Quero dizer: é o suficiente porque precisamos garantir que não haja abusos de poder, que são desenfreados no mundo das grandes tecnologias. Depois de 20 anos, já sabemos qual é a estratégia das Big Techs. Elas querem fazer o mínimo por meio de obrigações legais para ganhar o máximo de dinheiro que puderem. Quando se trata de IA, sabemos mais ou menos o que isso significa: elas contratarão algumas pessoas mal pagas no Quênia, que analisarão as imagens e alimentarão o conjunto de dados com todos os dados que encontrarem, apenas resolvendo metade do problema. E os serviços vão ser refinados à medida que avançarem. Cada etapa desse processo tem um possível dilema legal, ético ou moral de algum tipo. Algo precisa ser feito a respeito disso.

O sr. disse que os americanos fazem uma coisa e dizem outra. Há alguns meses, partes do Vale do Silício e Elon Musk assinaram uma carta dizendo para interromper a pesquisa de IA. Qual é a sua opinião sobre isso?

O mundo da tecnologia tem vários grupos de pessoas. Há pessoas que são genuinamente bem-intencionadas, mas ingênuas. Muitas delas são acadêmicos sólidos…

O sr. pode dizer o nome deles?

Geoffrey Hinton. Ele é facilmente um cara que eu acho que é mais ou menos bem-humorado, tem intenções nobres. Ele é bastante arrogante e rejeita abordagens alternativas à IA. Mas, de modo geral, seu coração está no lugar certo. E ele acordou tarde demais. E sem ter uma boa análise das relações de poder e de como funciona o capitalismo. Ele realmente quer alertá-los sobre os perigos que estamos enfrentando e, ao mesmo tempo, ter algo registrado que lhe permita dizer, cinco anos depois, que estava certo. Ele é mais um caso extremo de pessoas ingênuas.

Também há muitas pessoas que são apenas acadêmicos comuns que trabalham em universidades e acham que o mundo é perigoso. Elas também são um pouco arrogantes, pois superestimam o que a IA pode fazer atualmente. Mas há pessoas como Elon Musk e outros que representam o lado comercial da IA, que basicamente entendem que precisam desse escudo retórico e ideológico contra os esforços que inevitavelmente ocorrerão nos próximos anos para tentar enfraquecer ou regular as empresas de tecnologia que a estão construindo.

Para eles, essa ideia de uma inteligência artificial geral (AGI, na sigla em inglês) é uma operação retórica que lhes permite distrair o público das questões mais urgentes sobre quais são os danos que já estão ocorrendo por causa dos sistemas. É uma operação de distração, o que é muito bem-sucedido. Porque, desde que atraiam pessoas e nomes suficientes, eles podem gerar manchetes, e é uma ótima história. Mas também é uma história que, por um lado, exagera o que eles podem fazer. Ela apresenta o atual setor de tecnologia como um ator responsável que, ao contrário da Cambridge Analytic, do Facebook e de outros, está de fato alertando o mundo sobre os perigos. E garante a essa empresa um lugar na mesa quando se trata de regulamentação, que é mais ou menos o que aconteceu quando as audiências no Congresso começaram.

O Sam Altman (presidente executivo da OpenAI) foi convidado a testemunhar no Congresso dos EUA e ele foi recebido 20 vezes melhor do que Mark Zuckerberg foi recebido apenas um ou dois anos antes. Portanto, nesse sentido, a estratégia está funcionando.

Quais são os reais problemas da IA?

Há duas coisas aqui. Uma é a negativa e a outra é a positiva. Quando se faz a salsicha, dizem que não se quer saber como ela é feita. Ou seja, parece que essas companhias não querem que saibamos como a IA é feita. Elas não querem saber sobre as pessoas no Quênia que têm que ver as fotos para treinar os modelos. É como se você não quisesse que o fabricante de salsichas assistisse a um documentário sobre como os animais são tratados antes de fazer a salsicha. Portanto, é um tipo de decisão racional muito pragmática da parte deles mistificar o processo. A AGI é uma distração. A ação real acontece em outro lugar, como os custos de criar essa quantidade de dados, falar sobre os custos de energia que entram no para operar todos os servidores. Além disso, os problemas são de política pública. E eles precisam fazer o que sempre foi discutido antes, que é tentar encontrar uma maneira alternativa de oferecer alguns dos serviços ao público, aos pobres e envolver empresas públicas e privadas como intermediárias.

A AGI é uma fraude?

A AGI é uma fraude na mesma medida em que a ideia de um mercado perfeito é uma fraude. Muitas pessoas também acreditam que existem mercados perfeitos ou que a oferta atende à demanda no mercado. Certas pessoas acham que o mercado é um dispositivo de processamento de informações, que faz isso muito melhor do que qualquer sistema alternativo e incorpora todas as motivações das pessoas. Quero dizer, há pessoas que atribuem ao mercado as mesmas qualidades mágicas que atribuiriam à IA. É uma visão equivocada porque, em última análise, não entende que tanto os tecnólogos quanto os mercados existem em um mundo em que seu poder é completamente esmagado pelas realidades e imperativos que não têm nada a ver com tecnologia ou economia, ou que têm a ver com geopolítica, alianças militares etc.

Portanto, entendo por que os tecnólogos precisam dessa visão da AGI para dar sentido ao que fazem todos os dias, assim como os economistas precisam ter essa visão do mercado perfeito para dar sentido ao que fazem. Mas, em última análise, existe a necessidade de a realidade entrar em ação em algum momento. Entendemos que os mercados não são perfeitos e que muitas vezes eles falham. E é por isso que criamos sistemas públicos que substituem os mercados. E é óbvio que a AGI fracassaria em muitos contextos. Precisamos questionar sua utilidade para a forma como queremos administrar o mundo. É pouco provável que a AGI venha a existir, mas, mesmo que isso aconteça, não sei se gostaríamos que isso acontecesse. Você não se sentiria confortável em um avião que voa completamente sem o piloto. Não sei se você gostaria que as decisões críticas sobre segurança nacional, saúde, educação fossem tomadas por uma AGI. E essas áreas são muito mais complexas do que pilotar um avião.

A chegada do ChatGPT, lançado em novembro do ano passado pela startup americana OpenAI, acendeu um alerta que, há décadas, é tema de filme de ficção-científica: a possibilidade do surgimento de uma inteligência artificial geral (AGI, na sigla em inglês), sistema capaz de realizar uma série de tarefas para as quais não foi criada para realizar inicialmente. Ou seja, teria capacidade igual ou superior a humana.

Esse temor levou um conjunto de acadêmicos e empreendedores do Vale do Silício a assinar uma carta, em março deste ano, pedindo que as empresas de inteligência artificial (como a própria OpenAI e o rival Google) pausassem as pesquisas com inteligência artificial. Entre os signatários estão o bilionário e homem mais rico do mundo, Elon Musk, e o historiador Yuval Harari.

Para uma parcela dos pesquisadores de tecnologia, esse posicionamento é uma cortina de fumaça para esconder os reais problemas da IA no mundo, como as condições de trabalho das pessoas em países em desenvolvimento chamadas para treinar esses modelos ou os custos energéticos para manter os servidores ligados.

“A AGI é uma distração. Essas companhias não querem que saibamos como a IA é feita”, afirma ao Estadão o bielorrusso Evgeny Morozov, autor de Big Tech: A ascensão dos dados e a morte da política (Ed. Ubu, 192 p., 2018), onde faz uma crítica ferrenha das grandes corporações do Vale do Silício e do neoliberalismo em uma série de ensaios. Em 2011 e 2013, Morozov publicou o Save Everything, The Net Delusion: The Dark Side of Internet Freedom and To Save Everything e Click Here: The Folly of Technological Solutionism, dois livros que o credenciaram como um dos principais pensadores sobre tecnologia no mundo.

Nesta segunda-feira, 28, ele participou de uma conferência em São Paulo, onde está hospedado, realizada pelo Comitê Gestor da Internet no Brasil (CGI) e pelo Núcleo de Informação e Coordenação do Ponto BR (NIC). Seu trabalho mais recente é o podcast Santiago Boys, em que conta a história do Projeto Cybersyn, tentativa do governo do chileno Salvador Allende (1970-1973) de criar uma “internet socialista”.

“Essa ideia de uma inteligência artificial geral é uma operação retórica que permite as empresas de tecnologia a distrair o público das questões mais urgentes sobre quais são os danos que já estão ocorrendo por causa dos sistemas. É uma operação de distração, o que é muito bem-sucedido”, explica Morozov.

Ele também falou sobre o papel da União Europeia em meio à disputa entre China e Estados Unidos e o papel de governos para reduzir o poder de mercado das Big Techs. Abaixo, leia trechos da entrevista ao Estadão.

O sr. argumentou antes que deveríamos ‘odiar as grandes empresas de tecnologia’. Depois da pandemia de covid-19, muitas pessoas pensaram que essas empresas eram essenciais graças às ferramentas digitais utilizadas no isolamento. Elas provaram seu valor de alguma forma?

Devemos odiá-las pelos motivos certos. Para mim, as questões que têm a ver com o poder das Big Techs são os custos invisíveis e os de longo prazo. Isso não significa que, em determinados períodos, elas não possam ser úteis. Muitas coisas que usamos têm um enorme custo invisível. Podemos dirigir carros muito grandes e eles serão muito confortáveis, mas destruirão o meio ambiente. A lente por meio da qual se deve olhar para as Big Techs é a seguinte: no curto prazo, elas claramente preenchem um determinado nicho, que pode existir porque o Estado falhou e negligenciou o investimento na criação de alternativas robustas. Os correios se desenvolveram porque havia uma necessidade. Se não o desenvolvêssemos, certamente algum agente privado acabaria se oferecendo para resolvê-lo. Então, para mim, o fato de haver alguém preenchendo a lacuna não é um argumento a favor.

Autor Evgeny Morozov é crítico das Big Techs e pede a regulamentação da inteligência artificial  Foto: Werther Santana/Estadão - 28/8/2023

Os governos deveriam investir em tecnologia própria como alternativa às companhias?

A tecnologia é uma mistura de coisas heterogêneas muito diferentes. Devemos tentar separar os elementos de infraestrutura da camada de aplicativos. Portanto, a camada de apps deve ser aberta para qualquer pessoa - qualquer um deve ser capaz de criar um aplicativo. Não acho que deva haver nenhuma barreira no caminho, embora ela exista na economia digital de agora. Para desenvolver bons apps, você precisa de desenvolvedores fortes e com boa formação. E devido à forma como o mercado funciona, praticamente todos eles vão trabalhar para o setor privado. Portanto, uma ONG, uma entidade pública já está em desvantagem por padrão. Se olharmos abaixo da camada de aplicativos e repararmos nas infraestruturas, estou absolutamente convencido de que a única alternativa para a dependência aos serviços de IA, de computação em nuvem e de computação quântica das grandes empresas é investir na construção de nossas próprias infraestruturas públicas. Assim, elas poderão ser regulamentadas e abertas a qualquer pessoa que queira contratar o fornecimento de IA, de modo que não seja possível proibir o fornecimento de determinados serviços.

Especialistas apontam que essas empresas de tecnologia cresceram com a ajuda de governos ou pelo menos sob a negligência deles. Esses mesmos governos deveriam fazer algo em relação a elas?

Essas empresas cresceram, em parte, porque conseguiram alavancar os recursos de alguns governos. No caso dos Estados Unidos, de onde vêm a maioria dessas empresas, elas aproveitaram subsídios e contratos com o setor de Defesa para fazer parte da política industrial. E a razão pela qual esse setor existe é porque houve uma certa decisão estratégica de que é um setor importante que ajuda a economia americana e que certas decisões começaram a ser tomadas para se beneficiar. Mas elas também se beneficiaram dos esforços dos consumidores. Por exemplo, o Google nunca se preocupou em pagar ninguém para indexar seu conteúdo.

Em última análise, tudo o que eu estava dizendo é que a razão pela qual esse setor de tecnologia existe é porque ele se aproveita dos problemas da sociedade. E, nesse caso, o problema da sociedade era a existência de qualquer infraestrutura alternativa para organizar o conhecimento online.

O mesmo acontece com a OpenAI, quando, no momento, essas empresas estão apenas circulando e sugando todos os dados que podem. O argumento é apenas fazer isso em tal escala que as companhias simplesmente afirmam que estão resolvendo o problema do câncer e da fome no mundo. Portanto, deveríamos simplesmente alimentar o modelo com todos os dados que pudermos adicionar.

O problema da IA está nos tipos de dados e a quem pertencem?

A razão pela qual a OpenAI pode existir, além de todos os bilhões aportados pela Microsoft e outros investidores, é porque, em última análise, ninguém a responsabilizou pelas informações que entram no sistema. No meu universo dos sonhos, serviços como os modelos amplos de linguagem (LLM, na sigla em inglês) também serão oferecidos por instituições públicas. No Brasil, se você olhar a maioria dos artigos acadêmicos, os artigos são gratuitos, porque são de acesso aberto. Mas esse é um ambiente que, nas condições atuais, beneficiaria empresas como a OpenAI, porque ela poderia vir e sugar todos os dados, criar o modelo de IA e depois vendê-la de volta ao governo para o Ministério da Educação. Nessas condições, para mim, está claro que seria muito mais conveniente e lógico, do ponto de vista do valor público, criar uma equivalência no setor público que teria apenas seus próprios LLM para oferecê-los às bibliotecas, universidades e estudantes.

No meu universo dos sonhos, serviços como os modelos amplos de linguagem (LLM, na sigla em inglês) também serão oferecidos por instituições públicas

Evgeny Morozov

A União Europeia está tentando criar uma terceira via na corrida da inteligência artificial, fora da bipolaridade EUA-China. Isso é possível?

Na Europa, o que se vê são pessoas que, por um lado, estão completamente corretas, dizendo que as grandes plataformas de tecnologia têm muito poder de mercado, do qual estão abusando. Então, essa parcela diz: “Vamos policiar o poder de mercado”. Mas não há nada que diga que essas empresas não se tornaram o que são por causa da concorrência.

Isso é o que os europeus não entendem sobre os americanos. Os americanos dizem uma coisa e depois fazem outra. No caso das grandes empresas de tecnologia, esse setor surgiu devido a uma atitude muito favorável de Wall Street, do Pentágono e do governo americano, que mais ou menos consideravam as Big Techs, durante os anos 1990 e 2000, como o setor do futuro. Essas firmas receberam subsídios, tiveram acesso barato ao dinheiro, obtiveram todos os tipos de benefícios que não tinham nada a ver com concorrência. E elas, é claro, aproveitam a influência geopolítica dos Estados Unidos. Assim, toda vez que alguém quisesse regulamentar essas empresas, receberia politicamente apenas um tapa na mão. Foi sob essas condições que o Vale do Silício floresceu.

Na Europa, eles dizem querer seguir as regras e impor regras mais rígidas. Então, de alguma forma mágica, uma pequena startup em Berlim poderá competir com o Google - onde Eric Schmidt (ex-presidente executivo do Google) tem assento em todos os conselhos do Pentágono. Como uma pequena startup de Berlim pode competir com esse tipo de influência geopolítica? Há uma certa ingenuidade ou eles simplesmente não estão interessados em resolver problemas na Europa.

A União Europeia também está discutindo a regulamentação da IA, assim como o Brasil. O sr. acha que isso é suficiente?

Não, não é o suficiente. Quero dizer: é o suficiente porque precisamos garantir que não haja abusos de poder, que são desenfreados no mundo das grandes tecnologias. Depois de 20 anos, já sabemos qual é a estratégia das Big Techs. Elas querem fazer o mínimo por meio de obrigações legais para ganhar o máximo de dinheiro que puderem. Quando se trata de IA, sabemos mais ou menos o que isso significa: elas contratarão algumas pessoas mal pagas no Quênia, que analisarão as imagens e alimentarão o conjunto de dados com todos os dados que encontrarem, apenas resolvendo metade do problema. E os serviços vão ser refinados à medida que avançarem. Cada etapa desse processo tem um possível dilema legal, ético ou moral de algum tipo. Algo precisa ser feito a respeito disso.

O sr. disse que os americanos fazem uma coisa e dizem outra. Há alguns meses, partes do Vale do Silício e Elon Musk assinaram uma carta dizendo para interromper a pesquisa de IA. Qual é a sua opinião sobre isso?

O mundo da tecnologia tem vários grupos de pessoas. Há pessoas que são genuinamente bem-intencionadas, mas ingênuas. Muitas delas são acadêmicos sólidos…

O sr. pode dizer o nome deles?

Geoffrey Hinton. Ele é facilmente um cara que eu acho que é mais ou menos bem-humorado, tem intenções nobres. Ele é bastante arrogante e rejeita abordagens alternativas à IA. Mas, de modo geral, seu coração está no lugar certo. E ele acordou tarde demais. E sem ter uma boa análise das relações de poder e de como funciona o capitalismo. Ele realmente quer alertá-los sobre os perigos que estamos enfrentando e, ao mesmo tempo, ter algo registrado que lhe permita dizer, cinco anos depois, que estava certo. Ele é mais um caso extremo de pessoas ingênuas.

Também há muitas pessoas que são apenas acadêmicos comuns que trabalham em universidades e acham que o mundo é perigoso. Elas também são um pouco arrogantes, pois superestimam o que a IA pode fazer atualmente. Mas há pessoas como Elon Musk e outros que representam o lado comercial da IA, que basicamente entendem que precisam desse escudo retórico e ideológico contra os esforços que inevitavelmente ocorrerão nos próximos anos para tentar enfraquecer ou regular as empresas de tecnologia que a estão construindo.

Para eles, essa ideia de uma inteligência artificial geral (AGI, na sigla em inglês) é uma operação retórica que lhes permite distrair o público das questões mais urgentes sobre quais são os danos que já estão ocorrendo por causa dos sistemas. É uma operação de distração, o que é muito bem-sucedido. Porque, desde que atraiam pessoas e nomes suficientes, eles podem gerar manchetes, e é uma ótima história. Mas também é uma história que, por um lado, exagera o que eles podem fazer. Ela apresenta o atual setor de tecnologia como um ator responsável que, ao contrário da Cambridge Analytic, do Facebook e de outros, está de fato alertando o mundo sobre os perigos. E garante a essa empresa um lugar na mesa quando se trata de regulamentação, que é mais ou menos o que aconteceu quando as audiências no Congresso começaram.

O Sam Altman (presidente executivo da OpenAI) foi convidado a testemunhar no Congresso dos EUA e ele foi recebido 20 vezes melhor do que Mark Zuckerberg foi recebido apenas um ou dois anos antes. Portanto, nesse sentido, a estratégia está funcionando.

Quais são os reais problemas da IA?

Há duas coisas aqui. Uma é a negativa e a outra é a positiva. Quando se faz a salsicha, dizem que não se quer saber como ela é feita. Ou seja, parece que essas companhias não querem que saibamos como a IA é feita. Elas não querem saber sobre as pessoas no Quênia que têm que ver as fotos para treinar os modelos. É como se você não quisesse que o fabricante de salsichas assistisse a um documentário sobre como os animais são tratados antes de fazer a salsicha. Portanto, é um tipo de decisão racional muito pragmática da parte deles mistificar o processo. A AGI é uma distração. A ação real acontece em outro lugar, como os custos de criar essa quantidade de dados, falar sobre os custos de energia que entram no para operar todos os servidores. Além disso, os problemas são de política pública. E eles precisam fazer o que sempre foi discutido antes, que é tentar encontrar uma maneira alternativa de oferecer alguns dos serviços ao público, aos pobres e envolver empresas públicas e privadas como intermediárias.

A AGI é uma fraude?

A AGI é uma fraude na mesma medida em que a ideia de um mercado perfeito é uma fraude. Muitas pessoas também acreditam que existem mercados perfeitos ou que a oferta atende à demanda no mercado. Certas pessoas acham que o mercado é um dispositivo de processamento de informações, que faz isso muito melhor do que qualquer sistema alternativo e incorpora todas as motivações das pessoas. Quero dizer, há pessoas que atribuem ao mercado as mesmas qualidades mágicas que atribuiriam à IA. É uma visão equivocada porque, em última análise, não entende que tanto os tecnólogos quanto os mercados existem em um mundo em que seu poder é completamente esmagado pelas realidades e imperativos que não têm nada a ver com tecnologia ou economia, ou que têm a ver com geopolítica, alianças militares etc.

Portanto, entendo por que os tecnólogos precisam dessa visão da AGI para dar sentido ao que fazem todos os dias, assim como os economistas precisam ter essa visão do mercado perfeito para dar sentido ao que fazem. Mas, em última análise, existe a necessidade de a realidade entrar em ação em algum momento. Entendemos que os mercados não são perfeitos e que muitas vezes eles falham. E é por isso que criamos sistemas públicos que substituem os mercados. E é óbvio que a AGI fracassaria em muitos contextos. Precisamos questionar sua utilidade para a forma como queremos administrar o mundo. É pouco provável que a AGI venha a existir, mas, mesmo que isso aconteça, não sei se gostaríamos que isso acontecesse. Você não se sentiria confortável em um avião que voa completamente sem o piloto. Não sei se você gostaria que as decisões críticas sobre segurança nacional, saúde, educação fossem tomadas por uma AGI. E essas áreas são muito mais complexas do que pilotar um avião.

A chegada do ChatGPT, lançado em novembro do ano passado pela startup americana OpenAI, acendeu um alerta que, há décadas, é tema de filme de ficção-científica: a possibilidade do surgimento de uma inteligência artificial geral (AGI, na sigla em inglês), sistema capaz de realizar uma série de tarefas para as quais não foi criada para realizar inicialmente. Ou seja, teria capacidade igual ou superior a humana.

Esse temor levou um conjunto de acadêmicos e empreendedores do Vale do Silício a assinar uma carta, em março deste ano, pedindo que as empresas de inteligência artificial (como a própria OpenAI e o rival Google) pausassem as pesquisas com inteligência artificial. Entre os signatários estão o bilionário e homem mais rico do mundo, Elon Musk, e o historiador Yuval Harari.

Para uma parcela dos pesquisadores de tecnologia, esse posicionamento é uma cortina de fumaça para esconder os reais problemas da IA no mundo, como as condições de trabalho das pessoas em países em desenvolvimento chamadas para treinar esses modelos ou os custos energéticos para manter os servidores ligados.

“A AGI é uma distração. Essas companhias não querem que saibamos como a IA é feita”, afirma ao Estadão o bielorrusso Evgeny Morozov, autor de Big Tech: A ascensão dos dados e a morte da política (Ed. Ubu, 192 p., 2018), onde faz uma crítica ferrenha das grandes corporações do Vale do Silício e do neoliberalismo em uma série de ensaios. Em 2011 e 2013, Morozov publicou o Save Everything, The Net Delusion: The Dark Side of Internet Freedom and To Save Everything e Click Here: The Folly of Technological Solutionism, dois livros que o credenciaram como um dos principais pensadores sobre tecnologia no mundo.

Nesta segunda-feira, 28, ele participou de uma conferência em São Paulo, onde está hospedado, realizada pelo Comitê Gestor da Internet no Brasil (CGI) e pelo Núcleo de Informação e Coordenação do Ponto BR (NIC). Seu trabalho mais recente é o podcast Santiago Boys, em que conta a história do Projeto Cybersyn, tentativa do governo do chileno Salvador Allende (1970-1973) de criar uma “internet socialista”.

“Essa ideia de uma inteligência artificial geral é uma operação retórica que permite as empresas de tecnologia a distrair o público das questões mais urgentes sobre quais são os danos que já estão ocorrendo por causa dos sistemas. É uma operação de distração, o que é muito bem-sucedido”, explica Morozov.

Ele também falou sobre o papel da União Europeia em meio à disputa entre China e Estados Unidos e o papel de governos para reduzir o poder de mercado das Big Techs. Abaixo, leia trechos da entrevista ao Estadão.

O sr. argumentou antes que deveríamos ‘odiar as grandes empresas de tecnologia’. Depois da pandemia de covid-19, muitas pessoas pensaram que essas empresas eram essenciais graças às ferramentas digitais utilizadas no isolamento. Elas provaram seu valor de alguma forma?

Devemos odiá-las pelos motivos certos. Para mim, as questões que têm a ver com o poder das Big Techs são os custos invisíveis e os de longo prazo. Isso não significa que, em determinados períodos, elas não possam ser úteis. Muitas coisas que usamos têm um enorme custo invisível. Podemos dirigir carros muito grandes e eles serão muito confortáveis, mas destruirão o meio ambiente. A lente por meio da qual se deve olhar para as Big Techs é a seguinte: no curto prazo, elas claramente preenchem um determinado nicho, que pode existir porque o Estado falhou e negligenciou o investimento na criação de alternativas robustas. Os correios se desenvolveram porque havia uma necessidade. Se não o desenvolvêssemos, certamente algum agente privado acabaria se oferecendo para resolvê-lo. Então, para mim, o fato de haver alguém preenchendo a lacuna não é um argumento a favor.

Autor Evgeny Morozov é crítico das Big Techs e pede a regulamentação da inteligência artificial  Foto: Werther Santana/Estadão - 28/8/2023

Os governos deveriam investir em tecnologia própria como alternativa às companhias?

A tecnologia é uma mistura de coisas heterogêneas muito diferentes. Devemos tentar separar os elementos de infraestrutura da camada de aplicativos. Portanto, a camada de apps deve ser aberta para qualquer pessoa - qualquer um deve ser capaz de criar um aplicativo. Não acho que deva haver nenhuma barreira no caminho, embora ela exista na economia digital de agora. Para desenvolver bons apps, você precisa de desenvolvedores fortes e com boa formação. E devido à forma como o mercado funciona, praticamente todos eles vão trabalhar para o setor privado. Portanto, uma ONG, uma entidade pública já está em desvantagem por padrão. Se olharmos abaixo da camada de aplicativos e repararmos nas infraestruturas, estou absolutamente convencido de que a única alternativa para a dependência aos serviços de IA, de computação em nuvem e de computação quântica das grandes empresas é investir na construção de nossas próprias infraestruturas públicas. Assim, elas poderão ser regulamentadas e abertas a qualquer pessoa que queira contratar o fornecimento de IA, de modo que não seja possível proibir o fornecimento de determinados serviços.

Especialistas apontam que essas empresas de tecnologia cresceram com a ajuda de governos ou pelo menos sob a negligência deles. Esses mesmos governos deveriam fazer algo em relação a elas?

Essas empresas cresceram, em parte, porque conseguiram alavancar os recursos de alguns governos. No caso dos Estados Unidos, de onde vêm a maioria dessas empresas, elas aproveitaram subsídios e contratos com o setor de Defesa para fazer parte da política industrial. E a razão pela qual esse setor existe é porque houve uma certa decisão estratégica de que é um setor importante que ajuda a economia americana e que certas decisões começaram a ser tomadas para se beneficiar. Mas elas também se beneficiaram dos esforços dos consumidores. Por exemplo, o Google nunca se preocupou em pagar ninguém para indexar seu conteúdo.

Em última análise, tudo o que eu estava dizendo é que a razão pela qual esse setor de tecnologia existe é porque ele se aproveita dos problemas da sociedade. E, nesse caso, o problema da sociedade era a existência de qualquer infraestrutura alternativa para organizar o conhecimento online.

O mesmo acontece com a OpenAI, quando, no momento, essas empresas estão apenas circulando e sugando todos os dados que podem. O argumento é apenas fazer isso em tal escala que as companhias simplesmente afirmam que estão resolvendo o problema do câncer e da fome no mundo. Portanto, deveríamos simplesmente alimentar o modelo com todos os dados que pudermos adicionar.

O problema da IA está nos tipos de dados e a quem pertencem?

A razão pela qual a OpenAI pode existir, além de todos os bilhões aportados pela Microsoft e outros investidores, é porque, em última análise, ninguém a responsabilizou pelas informações que entram no sistema. No meu universo dos sonhos, serviços como os modelos amplos de linguagem (LLM, na sigla em inglês) também serão oferecidos por instituições públicas. No Brasil, se você olhar a maioria dos artigos acadêmicos, os artigos são gratuitos, porque são de acesso aberto. Mas esse é um ambiente que, nas condições atuais, beneficiaria empresas como a OpenAI, porque ela poderia vir e sugar todos os dados, criar o modelo de IA e depois vendê-la de volta ao governo para o Ministério da Educação. Nessas condições, para mim, está claro que seria muito mais conveniente e lógico, do ponto de vista do valor público, criar uma equivalência no setor público que teria apenas seus próprios LLM para oferecê-los às bibliotecas, universidades e estudantes.

No meu universo dos sonhos, serviços como os modelos amplos de linguagem (LLM, na sigla em inglês) também serão oferecidos por instituições públicas

Evgeny Morozov

A União Europeia está tentando criar uma terceira via na corrida da inteligência artificial, fora da bipolaridade EUA-China. Isso é possível?

Na Europa, o que se vê são pessoas que, por um lado, estão completamente corretas, dizendo que as grandes plataformas de tecnologia têm muito poder de mercado, do qual estão abusando. Então, essa parcela diz: “Vamos policiar o poder de mercado”. Mas não há nada que diga que essas empresas não se tornaram o que são por causa da concorrência.

Isso é o que os europeus não entendem sobre os americanos. Os americanos dizem uma coisa e depois fazem outra. No caso das grandes empresas de tecnologia, esse setor surgiu devido a uma atitude muito favorável de Wall Street, do Pentágono e do governo americano, que mais ou menos consideravam as Big Techs, durante os anos 1990 e 2000, como o setor do futuro. Essas firmas receberam subsídios, tiveram acesso barato ao dinheiro, obtiveram todos os tipos de benefícios que não tinham nada a ver com concorrência. E elas, é claro, aproveitam a influência geopolítica dos Estados Unidos. Assim, toda vez que alguém quisesse regulamentar essas empresas, receberia politicamente apenas um tapa na mão. Foi sob essas condições que o Vale do Silício floresceu.

Na Europa, eles dizem querer seguir as regras e impor regras mais rígidas. Então, de alguma forma mágica, uma pequena startup em Berlim poderá competir com o Google - onde Eric Schmidt (ex-presidente executivo do Google) tem assento em todos os conselhos do Pentágono. Como uma pequena startup de Berlim pode competir com esse tipo de influência geopolítica? Há uma certa ingenuidade ou eles simplesmente não estão interessados em resolver problemas na Europa.

A União Europeia também está discutindo a regulamentação da IA, assim como o Brasil. O sr. acha que isso é suficiente?

Não, não é o suficiente. Quero dizer: é o suficiente porque precisamos garantir que não haja abusos de poder, que são desenfreados no mundo das grandes tecnologias. Depois de 20 anos, já sabemos qual é a estratégia das Big Techs. Elas querem fazer o mínimo por meio de obrigações legais para ganhar o máximo de dinheiro que puderem. Quando se trata de IA, sabemos mais ou menos o que isso significa: elas contratarão algumas pessoas mal pagas no Quênia, que analisarão as imagens e alimentarão o conjunto de dados com todos os dados que encontrarem, apenas resolvendo metade do problema. E os serviços vão ser refinados à medida que avançarem. Cada etapa desse processo tem um possível dilema legal, ético ou moral de algum tipo. Algo precisa ser feito a respeito disso.

O sr. disse que os americanos fazem uma coisa e dizem outra. Há alguns meses, partes do Vale do Silício e Elon Musk assinaram uma carta dizendo para interromper a pesquisa de IA. Qual é a sua opinião sobre isso?

O mundo da tecnologia tem vários grupos de pessoas. Há pessoas que são genuinamente bem-intencionadas, mas ingênuas. Muitas delas são acadêmicos sólidos…

O sr. pode dizer o nome deles?

Geoffrey Hinton. Ele é facilmente um cara que eu acho que é mais ou menos bem-humorado, tem intenções nobres. Ele é bastante arrogante e rejeita abordagens alternativas à IA. Mas, de modo geral, seu coração está no lugar certo. E ele acordou tarde demais. E sem ter uma boa análise das relações de poder e de como funciona o capitalismo. Ele realmente quer alertá-los sobre os perigos que estamos enfrentando e, ao mesmo tempo, ter algo registrado que lhe permita dizer, cinco anos depois, que estava certo. Ele é mais um caso extremo de pessoas ingênuas.

Também há muitas pessoas que são apenas acadêmicos comuns que trabalham em universidades e acham que o mundo é perigoso. Elas também são um pouco arrogantes, pois superestimam o que a IA pode fazer atualmente. Mas há pessoas como Elon Musk e outros que representam o lado comercial da IA, que basicamente entendem que precisam desse escudo retórico e ideológico contra os esforços que inevitavelmente ocorrerão nos próximos anos para tentar enfraquecer ou regular as empresas de tecnologia que a estão construindo.

Para eles, essa ideia de uma inteligência artificial geral (AGI, na sigla em inglês) é uma operação retórica que lhes permite distrair o público das questões mais urgentes sobre quais são os danos que já estão ocorrendo por causa dos sistemas. É uma operação de distração, o que é muito bem-sucedido. Porque, desde que atraiam pessoas e nomes suficientes, eles podem gerar manchetes, e é uma ótima história. Mas também é uma história que, por um lado, exagera o que eles podem fazer. Ela apresenta o atual setor de tecnologia como um ator responsável que, ao contrário da Cambridge Analytic, do Facebook e de outros, está de fato alertando o mundo sobre os perigos. E garante a essa empresa um lugar na mesa quando se trata de regulamentação, que é mais ou menos o que aconteceu quando as audiências no Congresso começaram.

O Sam Altman (presidente executivo da OpenAI) foi convidado a testemunhar no Congresso dos EUA e ele foi recebido 20 vezes melhor do que Mark Zuckerberg foi recebido apenas um ou dois anos antes. Portanto, nesse sentido, a estratégia está funcionando.

Quais são os reais problemas da IA?

Há duas coisas aqui. Uma é a negativa e a outra é a positiva. Quando se faz a salsicha, dizem que não se quer saber como ela é feita. Ou seja, parece que essas companhias não querem que saibamos como a IA é feita. Elas não querem saber sobre as pessoas no Quênia que têm que ver as fotos para treinar os modelos. É como se você não quisesse que o fabricante de salsichas assistisse a um documentário sobre como os animais são tratados antes de fazer a salsicha. Portanto, é um tipo de decisão racional muito pragmática da parte deles mistificar o processo. A AGI é uma distração. A ação real acontece em outro lugar, como os custos de criar essa quantidade de dados, falar sobre os custos de energia que entram no para operar todos os servidores. Além disso, os problemas são de política pública. E eles precisam fazer o que sempre foi discutido antes, que é tentar encontrar uma maneira alternativa de oferecer alguns dos serviços ao público, aos pobres e envolver empresas públicas e privadas como intermediárias.

A AGI é uma fraude?

A AGI é uma fraude na mesma medida em que a ideia de um mercado perfeito é uma fraude. Muitas pessoas também acreditam que existem mercados perfeitos ou que a oferta atende à demanda no mercado. Certas pessoas acham que o mercado é um dispositivo de processamento de informações, que faz isso muito melhor do que qualquer sistema alternativo e incorpora todas as motivações das pessoas. Quero dizer, há pessoas que atribuem ao mercado as mesmas qualidades mágicas que atribuiriam à IA. É uma visão equivocada porque, em última análise, não entende que tanto os tecnólogos quanto os mercados existem em um mundo em que seu poder é completamente esmagado pelas realidades e imperativos que não têm nada a ver com tecnologia ou economia, ou que têm a ver com geopolítica, alianças militares etc.

Portanto, entendo por que os tecnólogos precisam dessa visão da AGI para dar sentido ao que fazem todos os dias, assim como os economistas precisam ter essa visão do mercado perfeito para dar sentido ao que fazem. Mas, em última análise, existe a necessidade de a realidade entrar em ação em algum momento. Entendemos que os mercados não são perfeitos e que muitas vezes eles falham. E é por isso que criamos sistemas públicos que substituem os mercados. E é óbvio que a AGI fracassaria em muitos contextos. Precisamos questionar sua utilidade para a forma como queremos administrar o mundo. É pouco provável que a AGI venha a existir, mas, mesmo que isso aconteça, não sei se gostaríamos que isso acontecesse. Você não se sentiria confortável em um avião que voa completamente sem o piloto. Não sei se você gostaria que as decisões críticas sobre segurança nacional, saúde, educação fossem tomadas por uma AGI. E essas áreas são muito mais complexas do que pilotar um avião.

A chegada do ChatGPT, lançado em novembro do ano passado pela startup americana OpenAI, acendeu um alerta que, há décadas, é tema de filme de ficção-científica: a possibilidade do surgimento de uma inteligência artificial geral (AGI, na sigla em inglês), sistema capaz de realizar uma série de tarefas para as quais não foi criada para realizar inicialmente. Ou seja, teria capacidade igual ou superior a humana.

Esse temor levou um conjunto de acadêmicos e empreendedores do Vale do Silício a assinar uma carta, em março deste ano, pedindo que as empresas de inteligência artificial (como a própria OpenAI e o rival Google) pausassem as pesquisas com inteligência artificial. Entre os signatários estão o bilionário e homem mais rico do mundo, Elon Musk, e o historiador Yuval Harari.

Para uma parcela dos pesquisadores de tecnologia, esse posicionamento é uma cortina de fumaça para esconder os reais problemas da IA no mundo, como as condições de trabalho das pessoas em países em desenvolvimento chamadas para treinar esses modelos ou os custos energéticos para manter os servidores ligados.

“A AGI é uma distração. Essas companhias não querem que saibamos como a IA é feita”, afirma ao Estadão o bielorrusso Evgeny Morozov, autor de Big Tech: A ascensão dos dados e a morte da política (Ed. Ubu, 192 p., 2018), onde faz uma crítica ferrenha das grandes corporações do Vale do Silício e do neoliberalismo em uma série de ensaios. Em 2011 e 2013, Morozov publicou o Save Everything, The Net Delusion: The Dark Side of Internet Freedom and To Save Everything e Click Here: The Folly of Technological Solutionism, dois livros que o credenciaram como um dos principais pensadores sobre tecnologia no mundo.

Nesta segunda-feira, 28, ele participou de uma conferência em São Paulo, onde está hospedado, realizada pelo Comitê Gestor da Internet no Brasil (CGI) e pelo Núcleo de Informação e Coordenação do Ponto BR (NIC). Seu trabalho mais recente é o podcast Santiago Boys, em que conta a história do Projeto Cybersyn, tentativa do governo do chileno Salvador Allende (1970-1973) de criar uma “internet socialista”.

“Essa ideia de uma inteligência artificial geral é uma operação retórica que permite as empresas de tecnologia a distrair o público das questões mais urgentes sobre quais são os danos que já estão ocorrendo por causa dos sistemas. É uma operação de distração, o que é muito bem-sucedido”, explica Morozov.

Ele também falou sobre o papel da União Europeia em meio à disputa entre China e Estados Unidos e o papel de governos para reduzir o poder de mercado das Big Techs. Abaixo, leia trechos da entrevista ao Estadão.

O sr. argumentou antes que deveríamos ‘odiar as grandes empresas de tecnologia’. Depois da pandemia de covid-19, muitas pessoas pensaram que essas empresas eram essenciais graças às ferramentas digitais utilizadas no isolamento. Elas provaram seu valor de alguma forma?

Devemos odiá-las pelos motivos certos. Para mim, as questões que têm a ver com o poder das Big Techs são os custos invisíveis e os de longo prazo. Isso não significa que, em determinados períodos, elas não possam ser úteis. Muitas coisas que usamos têm um enorme custo invisível. Podemos dirigir carros muito grandes e eles serão muito confortáveis, mas destruirão o meio ambiente. A lente por meio da qual se deve olhar para as Big Techs é a seguinte: no curto prazo, elas claramente preenchem um determinado nicho, que pode existir porque o Estado falhou e negligenciou o investimento na criação de alternativas robustas. Os correios se desenvolveram porque havia uma necessidade. Se não o desenvolvêssemos, certamente algum agente privado acabaria se oferecendo para resolvê-lo. Então, para mim, o fato de haver alguém preenchendo a lacuna não é um argumento a favor.

Autor Evgeny Morozov é crítico das Big Techs e pede a regulamentação da inteligência artificial  Foto: Werther Santana/Estadão - 28/8/2023

Os governos deveriam investir em tecnologia própria como alternativa às companhias?

A tecnologia é uma mistura de coisas heterogêneas muito diferentes. Devemos tentar separar os elementos de infraestrutura da camada de aplicativos. Portanto, a camada de apps deve ser aberta para qualquer pessoa - qualquer um deve ser capaz de criar um aplicativo. Não acho que deva haver nenhuma barreira no caminho, embora ela exista na economia digital de agora. Para desenvolver bons apps, você precisa de desenvolvedores fortes e com boa formação. E devido à forma como o mercado funciona, praticamente todos eles vão trabalhar para o setor privado. Portanto, uma ONG, uma entidade pública já está em desvantagem por padrão. Se olharmos abaixo da camada de aplicativos e repararmos nas infraestruturas, estou absolutamente convencido de que a única alternativa para a dependência aos serviços de IA, de computação em nuvem e de computação quântica das grandes empresas é investir na construção de nossas próprias infraestruturas públicas. Assim, elas poderão ser regulamentadas e abertas a qualquer pessoa que queira contratar o fornecimento de IA, de modo que não seja possível proibir o fornecimento de determinados serviços.

Especialistas apontam que essas empresas de tecnologia cresceram com a ajuda de governos ou pelo menos sob a negligência deles. Esses mesmos governos deveriam fazer algo em relação a elas?

Essas empresas cresceram, em parte, porque conseguiram alavancar os recursos de alguns governos. No caso dos Estados Unidos, de onde vêm a maioria dessas empresas, elas aproveitaram subsídios e contratos com o setor de Defesa para fazer parte da política industrial. E a razão pela qual esse setor existe é porque houve uma certa decisão estratégica de que é um setor importante que ajuda a economia americana e que certas decisões começaram a ser tomadas para se beneficiar. Mas elas também se beneficiaram dos esforços dos consumidores. Por exemplo, o Google nunca se preocupou em pagar ninguém para indexar seu conteúdo.

Em última análise, tudo o que eu estava dizendo é que a razão pela qual esse setor de tecnologia existe é porque ele se aproveita dos problemas da sociedade. E, nesse caso, o problema da sociedade era a existência de qualquer infraestrutura alternativa para organizar o conhecimento online.

O mesmo acontece com a OpenAI, quando, no momento, essas empresas estão apenas circulando e sugando todos os dados que podem. O argumento é apenas fazer isso em tal escala que as companhias simplesmente afirmam que estão resolvendo o problema do câncer e da fome no mundo. Portanto, deveríamos simplesmente alimentar o modelo com todos os dados que pudermos adicionar.

O problema da IA está nos tipos de dados e a quem pertencem?

A razão pela qual a OpenAI pode existir, além de todos os bilhões aportados pela Microsoft e outros investidores, é porque, em última análise, ninguém a responsabilizou pelas informações que entram no sistema. No meu universo dos sonhos, serviços como os modelos amplos de linguagem (LLM, na sigla em inglês) também serão oferecidos por instituições públicas. No Brasil, se você olhar a maioria dos artigos acadêmicos, os artigos são gratuitos, porque são de acesso aberto. Mas esse é um ambiente que, nas condições atuais, beneficiaria empresas como a OpenAI, porque ela poderia vir e sugar todos os dados, criar o modelo de IA e depois vendê-la de volta ao governo para o Ministério da Educação. Nessas condições, para mim, está claro que seria muito mais conveniente e lógico, do ponto de vista do valor público, criar uma equivalência no setor público que teria apenas seus próprios LLM para oferecê-los às bibliotecas, universidades e estudantes.

No meu universo dos sonhos, serviços como os modelos amplos de linguagem (LLM, na sigla em inglês) também serão oferecidos por instituições públicas

Evgeny Morozov

A União Europeia está tentando criar uma terceira via na corrida da inteligência artificial, fora da bipolaridade EUA-China. Isso é possível?

Na Europa, o que se vê são pessoas que, por um lado, estão completamente corretas, dizendo que as grandes plataformas de tecnologia têm muito poder de mercado, do qual estão abusando. Então, essa parcela diz: “Vamos policiar o poder de mercado”. Mas não há nada que diga que essas empresas não se tornaram o que são por causa da concorrência.

Isso é o que os europeus não entendem sobre os americanos. Os americanos dizem uma coisa e depois fazem outra. No caso das grandes empresas de tecnologia, esse setor surgiu devido a uma atitude muito favorável de Wall Street, do Pentágono e do governo americano, que mais ou menos consideravam as Big Techs, durante os anos 1990 e 2000, como o setor do futuro. Essas firmas receberam subsídios, tiveram acesso barato ao dinheiro, obtiveram todos os tipos de benefícios que não tinham nada a ver com concorrência. E elas, é claro, aproveitam a influência geopolítica dos Estados Unidos. Assim, toda vez que alguém quisesse regulamentar essas empresas, receberia politicamente apenas um tapa na mão. Foi sob essas condições que o Vale do Silício floresceu.

Na Europa, eles dizem querer seguir as regras e impor regras mais rígidas. Então, de alguma forma mágica, uma pequena startup em Berlim poderá competir com o Google - onde Eric Schmidt (ex-presidente executivo do Google) tem assento em todos os conselhos do Pentágono. Como uma pequena startup de Berlim pode competir com esse tipo de influência geopolítica? Há uma certa ingenuidade ou eles simplesmente não estão interessados em resolver problemas na Europa.

A União Europeia também está discutindo a regulamentação da IA, assim como o Brasil. O sr. acha que isso é suficiente?

Não, não é o suficiente. Quero dizer: é o suficiente porque precisamos garantir que não haja abusos de poder, que são desenfreados no mundo das grandes tecnologias. Depois de 20 anos, já sabemos qual é a estratégia das Big Techs. Elas querem fazer o mínimo por meio de obrigações legais para ganhar o máximo de dinheiro que puderem. Quando se trata de IA, sabemos mais ou menos o que isso significa: elas contratarão algumas pessoas mal pagas no Quênia, que analisarão as imagens e alimentarão o conjunto de dados com todos os dados que encontrarem, apenas resolvendo metade do problema. E os serviços vão ser refinados à medida que avançarem. Cada etapa desse processo tem um possível dilema legal, ético ou moral de algum tipo. Algo precisa ser feito a respeito disso.

O sr. disse que os americanos fazem uma coisa e dizem outra. Há alguns meses, partes do Vale do Silício e Elon Musk assinaram uma carta dizendo para interromper a pesquisa de IA. Qual é a sua opinião sobre isso?

O mundo da tecnologia tem vários grupos de pessoas. Há pessoas que são genuinamente bem-intencionadas, mas ingênuas. Muitas delas são acadêmicos sólidos…

O sr. pode dizer o nome deles?

Geoffrey Hinton. Ele é facilmente um cara que eu acho que é mais ou menos bem-humorado, tem intenções nobres. Ele é bastante arrogante e rejeita abordagens alternativas à IA. Mas, de modo geral, seu coração está no lugar certo. E ele acordou tarde demais. E sem ter uma boa análise das relações de poder e de como funciona o capitalismo. Ele realmente quer alertá-los sobre os perigos que estamos enfrentando e, ao mesmo tempo, ter algo registrado que lhe permita dizer, cinco anos depois, que estava certo. Ele é mais um caso extremo de pessoas ingênuas.

Também há muitas pessoas que são apenas acadêmicos comuns que trabalham em universidades e acham que o mundo é perigoso. Elas também são um pouco arrogantes, pois superestimam o que a IA pode fazer atualmente. Mas há pessoas como Elon Musk e outros que representam o lado comercial da IA, que basicamente entendem que precisam desse escudo retórico e ideológico contra os esforços que inevitavelmente ocorrerão nos próximos anos para tentar enfraquecer ou regular as empresas de tecnologia que a estão construindo.

Para eles, essa ideia de uma inteligência artificial geral (AGI, na sigla em inglês) é uma operação retórica que lhes permite distrair o público das questões mais urgentes sobre quais são os danos que já estão ocorrendo por causa dos sistemas. É uma operação de distração, o que é muito bem-sucedido. Porque, desde que atraiam pessoas e nomes suficientes, eles podem gerar manchetes, e é uma ótima história. Mas também é uma história que, por um lado, exagera o que eles podem fazer. Ela apresenta o atual setor de tecnologia como um ator responsável que, ao contrário da Cambridge Analytic, do Facebook e de outros, está de fato alertando o mundo sobre os perigos. E garante a essa empresa um lugar na mesa quando se trata de regulamentação, que é mais ou menos o que aconteceu quando as audiências no Congresso começaram.

O Sam Altman (presidente executivo da OpenAI) foi convidado a testemunhar no Congresso dos EUA e ele foi recebido 20 vezes melhor do que Mark Zuckerberg foi recebido apenas um ou dois anos antes. Portanto, nesse sentido, a estratégia está funcionando.

Quais são os reais problemas da IA?

Há duas coisas aqui. Uma é a negativa e a outra é a positiva. Quando se faz a salsicha, dizem que não se quer saber como ela é feita. Ou seja, parece que essas companhias não querem que saibamos como a IA é feita. Elas não querem saber sobre as pessoas no Quênia que têm que ver as fotos para treinar os modelos. É como se você não quisesse que o fabricante de salsichas assistisse a um documentário sobre como os animais são tratados antes de fazer a salsicha. Portanto, é um tipo de decisão racional muito pragmática da parte deles mistificar o processo. A AGI é uma distração. A ação real acontece em outro lugar, como os custos de criar essa quantidade de dados, falar sobre os custos de energia que entram no para operar todos os servidores. Além disso, os problemas são de política pública. E eles precisam fazer o que sempre foi discutido antes, que é tentar encontrar uma maneira alternativa de oferecer alguns dos serviços ao público, aos pobres e envolver empresas públicas e privadas como intermediárias.

A AGI é uma fraude?

A AGI é uma fraude na mesma medida em que a ideia de um mercado perfeito é uma fraude. Muitas pessoas também acreditam que existem mercados perfeitos ou que a oferta atende à demanda no mercado. Certas pessoas acham que o mercado é um dispositivo de processamento de informações, que faz isso muito melhor do que qualquer sistema alternativo e incorpora todas as motivações das pessoas. Quero dizer, há pessoas que atribuem ao mercado as mesmas qualidades mágicas que atribuiriam à IA. É uma visão equivocada porque, em última análise, não entende que tanto os tecnólogos quanto os mercados existem em um mundo em que seu poder é completamente esmagado pelas realidades e imperativos que não têm nada a ver com tecnologia ou economia, ou que têm a ver com geopolítica, alianças militares etc.

Portanto, entendo por que os tecnólogos precisam dessa visão da AGI para dar sentido ao que fazem todos os dias, assim como os economistas precisam ter essa visão do mercado perfeito para dar sentido ao que fazem. Mas, em última análise, existe a necessidade de a realidade entrar em ação em algum momento. Entendemos que os mercados não são perfeitos e que muitas vezes eles falham. E é por isso que criamos sistemas públicos que substituem os mercados. E é óbvio que a AGI fracassaria em muitos contextos. Precisamos questionar sua utilidade para a forma como queremos administrar o mundo. É pouco provável que a AGI venha a existir, mas, mesmo que isso aconteça, não sei se gostaríamos que isso acontecesse. Você não se sentiria confortável em um avião que voa completamente sem o piloto. Não sei se você gostaria que as decisões críticas sobre segurança nacional, saúde, educação fossem tomadas por uma AGI. E essas áreas são muito mais complexas do que pilotar um avião.

Entrevista por Guilherme Guerra

Repórter do Estadão desde 2018, com passagem pelas coberturas de educação, internacional, economia e tecnologia. Formado em Jornalismo pela Faculdade Cásper Líbero e pós-graduado em Estudos Brasileiros pela Fundação Escola de Sociologia e Política de São Paulo (FESPSP).

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.