Atualmente, o mundo da tecnologia se divide entre os pessimistas e os otimistas da inteligência artificial (IA). O primeiro grupo acredita que a tecnologia pode levar à destruição da Humanidade, enquanto o segundo prevê enormes benefícios para a sociedade. James Manyika, vice-presidente sênior de pesquisa, tecnologia e sociedade do Google, está no segundo grupo.
Isso, porém, não significa que o pesquisador nascido no Zimbábue não descarte a necessidade de medidas preventivas em relação à tecnologia. Considerado uma das 100 pessoas mais importantes em IA pela revista Time, ex-membro do governo de Barack Obama e parte do conselho da ONU para IA, Manyika destaca a necessidade ação por parte de governos e empresas no campo da IA, inclusive para destravar os benefícios prometidos pela tecnologia. Sem isso, é possível que a gente sofra as consequências negativas e não desfrute do potencial positivo.
Manyika conversou com Estadão e falou sobre os problemas e oportunidades da IA - destacou principalmente a importância de governos agirem proativamente em relação à tecnologia. Confira abaixo os melhores momentos
O sr. é um pessimista ou um otimista em relação à IA?
Sou otimista, mas parte do meu otimismo vem do fato de que temos que fazer as coisas direito. Não podemos ser apenas otimistas e supor que tudo acontecerá de forma mágica. O que motiva muitos de nós são as possibilidades extraordinárias que vemos para as pessoas, a sociedade, a economia e tudo mais. Mas, ao mesmo tempo, é importante também prestar atenção ao fato de que existem algumas complexidades e riscos. Portanto, acho que meu otimismo vem acompanhado de uma exigência de que também sejamos responsáveis pela forma como buscamos as incríveis oportunidades no horizonte.
Qual é o motivo para o sr. ter assinado a carta do Center for AI Safety, que falava sobre os riscos de extinção humana causados pela IA? Esses sistemas podem eliminar a Humanidade?
Eu participei da primeira cúpula de segurança de IA por volta de 2015 e pessoas como Max Tegmark, Stuart Russell e outros já estavam lá. Por mais empolgado que eu estivesse, e ainda estou, é importante ter um princípio de precaução sempre que se trabalha com uma tecnologia poderosa. Assinei o documento para sinalizar o que considero importante: você deve sempre prestar atenção às possibilidades de riscos. Porém, não estou preocupado com a extinção humana pela IA, mas acho que devemos sempre ter um princípio de precaução, mesmo quando buscamos coisas extraordinariamente benéficas para a sociedade.
A conversa sobre inteligência artificial geral e extinção humana por máquinas é uma estratégia de marketing das empresas desenvolvendo esses modelos?
Honestamente, acho essa conversa um pouco unilateral demais, porque deveríamos falar sobre as oportunidades que a tecnologia traz. Já estamos usando IA há muito tempo. Se você usa a busca do Google ou o Google Tradutor, já está usando IA. Mesmo agora, nos esquecemos disso. Pense nos alertas de enchentes. Pense no trabalho de detecção de incêndios florestais. Pense na possibilidade de a IA impulsionar a economia. Pense em todos esses avanços na ciência. Gostaria que passássemos mais tempo falando sobre as possibilidades extraordinárias para as pessoas, para a ciência e para a sociedade. Isso não quer dizer que não que não há um trabalho a ser feito com relação à segurança e aos riscos. Mas, sabe, é uma conversa muito unilateral.
Uma empresa ter como missão ‘desenvolver inteligência artificial geral (AGI) para o benefício da humanidade’ é algo razoável?
AGI é a ideia de criar sistemas de IA muito amplos. Criar sistemas capazes de muitas maneiras, que possam nos ajudar a resolver os desafios da sociedade, é uma meta que vale a pena. Muitos em IA foram motivados pelo desejo de resolver problemas, como sistemas capazes de ajudar a solucionar as mudanças climáticas, a solucionar o problema da saúde, e muitos outros. Estou realmente empolgado com a jornada para tentar criar sistemas com capacidade geral, mas isso tem um motivo. É para que possamos de fato resolver os desafios da sociedade e fazer coisas úteis.
Quais os problemas da IA no curto prazo são mais preocupantes?
Eu penso nas complexidades e nos riscos em algumas categorias. Primeiro, temos que resolver o que considero problemas de desempenho. Nenhum de nós se propôs a criar sistemas que sejam enviesados ou inseguros, e temos de abordar as possibilidades de resultados que são desse jeito. Em segundo lugar, penso nas possibilidades de usos ruins. Mesmo que os sistemas funcionem bem, você pode imaginar que eles sejam mal aplicados. E você também pode imaginar alguém deliberadamente fazendo mau uso deles. Portanto, o uso e a aplicação indevidos são outra complexidade. E a terceira coisa em que temos que pensar é como tudo isso vai se espalhar pela sociedade. Temos que pensar sobre o impacto no mercado de trabalho e parte disso é complexo. Como vamos reimaginar a educação e o aprendizado, por exemplo?
Como a IA pode aumentar a desigualdade? E o que deveríamos fazer para que ela gere igualdade?
Devemos aplicar a IA para superar barreiras. Certos grupos enfrentam barreiras sobre oportunidades de emprego e oportunidades de empreendedorismo. Acredito que sempre que pudermos devemos expandir a inovação. Essa é uma das coisas em que acredito e que acho que os reguladores precisarão pensar, principalmente para os países do Sul Global - e eu cresci no Sul Global. Tudo o que pudermos fazer para possibilitar que empreendedores usem tecnologia para participar e inovar será parte da forma como reduziremos a desigualdade global.
O que os países em desenvolvimento podem fazer para não ficar para trás na corrida da IA?
Acho que devemos ter parcerias. Estou animado, por exemplo, com o fato de termos um centro de desenvolvimento de produtos em Belo Horizonte. Quanto mais pudermos ter inovação e o desenvolvimento no Sul Global, melhor. Acredito também que uma regulamentação que possibilite e crie incentivos para que as pessoas invistam e participem, e não bloqueie a inovação, é uma coisa boa. Às vezes, reguladores esquecem que as grandes empresas podem lidar com a regulamentação. Já as startups e os empreendedores tendem a ser os mais sobrecarregados por isso. Portanto, o ideal é criar o máximo de incentivos para que empreendedores busquem oportunidades. Um dos aspectos complexos da IA é que os custos de computação costumam ser muito altos, o que dificulta a participação. Acredito que os governos - a propósito, os EUA também estão tentando fazer isso - precisam criar recursos nacionais de computação que permitam que pesquisadores e empreendedores possam trabalhar. Acho que os governos do Sul Global também devem criar recursos para que os empreendedores, inovadores e pesquisadores tenham acesso à computação.
Os políticos entendem a importância da IA?
Formuladores de políticas precisam compreender melhor as oportunidades e os desafios e como essa tecnologia funciona para que possam trabalhar as melhores abordagens e incentivos. Eles precisam entender por que é importante ter uma estrutura baseada em riscos, algo que o Nist (Instituto Nacional de Padrões Tecnológicos) fez nos EUA. Muitas vezes, a mesma tecnologia aplicada em diferentes ambientes tem implicações diferentes. Os políticos precisam entender que os riscos e as oportunidades variam de acordo com o setor e com o caso de uso. O que preocupa na área da saúde é muito diferente do que preocupa em um aplicativo para o consumidor. É preciso adotar uma abordagem proporcional baseada em riscos.
Qual é a sua opinião sobre a ordem executiva para IA do presidente Biden?
Foi um bom começo, em parte porque teve como objetivo abordar alguns dos riscos e preocupações de segurança. Embora eu ache que ainda não tenha feito o suficiente, tentou adotar uma abordagem baseada em riscos e também pensar nas oportunidades. Nesse sentido, foi um bom começo. Gostaria de ver um foco ainda maior na viabilização das oportunidades, porque muitas vezes há uma suposição de que as coisas benéficas acontecerão por mágica. Há muitas oportunidades que os mecanismos de mercado sozinhos não vão fazer acontecer. Por exemplo, não se resolve a previsão de enchentes com um aplicativo comercial.
Como evitar a concentração de poder nas grandes empresas de IA?
Existe uma combinação de fatores, que são técnicos e políticos, além de envolverem forças de mercado. Na parte técnica, as arquiteturas de IA baseadas em Transformer tendem a ser muito caras para treinar. Seria muito melhor se os custos de treinamento fossem mais baixos, mas estou convencido de que começaremos a ver o surgimento de modelos muito menores e mais eficientes. Portanto, há uma solução técnica para esse desafio de computação. Depois, há os mecanismos de mercado. Acredito que será importante disponibilizar APIs e modelos de código aberto, pois isso permite que muitos outros participem do ecossistema de IA. Acredito que mecanismos como artigos publicados, acesso à API e código aberto, ajudam a democratizar e reduzir a concentração. Já as medidas políticas têm a ver com a regulamentação que permite a participação, em vez de criar ônus para quem deseja participar. Acredito que também precisamos de mecanismos que criem infraestrutura compartilhada de computação. Nos EUA, esse é o motivo pelo qual recomendamos algo chamado NAIRR (Recurso Nacional de Pesquisa em IA). Com ele, podemos criar uma infraestrutura nacional de computação de IA que muitos outros, além das grandes empresas de tecnologia, também possam acessar para fazer o trabalho computacional de que precisam. Acho que estamos vendo algo parecido na Europa. Até mesmo o Reino Unido fez seu próprio investimento em uma infraestrutura nacional de computação. Acho que isso é algo em que os formuladores de políticas poderiam investir, pois isso abre as possibilidades de uso. Não podemos deixar as coisas acontecerem como estão acontecendo. Acho que é importante facilitar a participação de todos.
Desde que a Timnit Gebru deixou o Google, a empresa é criticada por supostamente ter abandonado a ética no desenvolvimento da inteligência artificial. Como o sr. responde a isso?
Nós nos dedicamos muito a isso. Acho que você já viu nossos princípios de IA, que estabelecemos em 2018. E eles orientam tudo o que fazemos. No fundo, os princípios fazem duas perguntas: 1) Isso pode ser útil de alguma forma? 2) Isso poderia ser prejudicial de alguma forma? Estamos constantemente trabalhando e aplicando isso a tudo o que fazemos. Todos os anos, você pode ler e ver o que estamos fazendo.Estamos fazendo escolhas explícitas. Falamos sobre reconhecimento facial, sobre se isso é apropriado ou não. Estamos investindo em inovações para lidar com isso. Veja a questão do preconceito. Vou lhe dar um exemplo pessoal, partindo do fato de que sou uma pessoa preta. Sabemos há muito tempo que os sistemas de reconhecimento de imagem não lidam muito bem com rostos como o meu porque eles têm algo chamado escala de Fitzpatrick, que foi inventada na década de 1970 e só tinha uma gama muito estreita de tons de pele. Lançamos pela primeira vez no ano passado, algo chamado escala Monk, que analisou uma variedade muito maior de rostos e tons de pele para permitir que nossos sistemas sejam capazes de lidar com questões de preconceito de tom de pele em sistemas de IA. Acho que todos esses são exemplos de coisas que estamos levando muito a sério. Eu diria apenas para olharem para o nosso trabalho, verem o que estamos fazendo, olharem para o nosso relatório de progresso e nos julgarem com base nisso.