Rubens de Almeida, Engenheiro e jornalista, dedicado a temas urbanos e organização de dados sobre mapas digitais e fundador do GisBI, mestrando em Gestão e Políticas Públicas (MPGPP) na FGV EAESP
Eduardo de Rezende Francisco, Professor de GeoAnalytics, Chefe do Departamento de Tecnologia e Data Science da FGV EAESP e fundador do GisBI
O artigo-comentário publicado neste blog "Gestão, Política e Sociedade", por Lucas Busani Xavier, nosso companheiro na FGV EAESP, como réplica ao nosso texto recente sobre o ChatGPT "Chatbots e Inteligência Artificial: Muito Além da Produção de Textos" trouxe para a mesa de reflexões um tema que ainda merece mais atenção da academia, e que acrescenta aspectos fundamentais à discussão: o "fetichismo da tecnologia". A companhia é boa: Marx, Adorno e Horkheimer se debruçaram de forma brilhante a assuntos semelhantes, obviamente vinculando-os às análises que fizeram sobre o funcionamento da economia e da sociedade em suas épocas, muito anterior à confusão tecnológica em que nos metemos.
Como bem observou o colega: no início do nosso texto, parecíamos reforçar a ilusão de que a máquina, afinal, poderia em algum momento "replicar criações verdadeiramente humanas".
O apelo fetichista do nosso texto é, na verdade, uma estratégia de captura do interesse do leitor, para que pudéssemos desconstruí-lo aos poucos, reforçando as diferenças e limitações evidentes daquilo que o senso comum (e o marketing de seus artificies) chama de inteligência artificial. Inteligente mesmo é o ser humano que fez o algoritmo que permite a alquimia linguística. E é admirável. Mas o usuário comum dessa possível interação tecnológica-humana pode, de fato, acreditar que o sistema é mesmo inteligente. E é isso o que nos assusta quando conversamos em nossos ambientes sociais e profissionais. Por isso é preciso quebrar as pernas do fetiche, com demonstrações e evidências das suas restrições.
Como parênteses, vale afirmar que o ChatGPT (e seus correlatos filhos do GPT3 incipientes ou ainda no forno) não é um modelo de conhecimento, e sim um modelo de linguagem. Ele foi assustadoramente bem treinado para saber com maestria produzir a palavra seguinte em um texto conversacional. Sua base de treino remete a muito do que foi produzido até 2021 pela humanidade "digital". E seu mecanismo de atenção faz com que ele destaque (e não aprenda) com mais ou menos ênfase elementos de sua linguagem dentro de um contexto de conversa com o ser humano com quem interage.
No texto anterior, refletimos sobre a possível e provável disseminação do uso de robôs de produção de textos, conhecidos como chatbots. O mais famoso deles, o ChatGPT estreou bombasticamente nas redes há algumas semanas e vem causando discussões acaloradas entre professores, autores, jornalistas, advogados e outros profissionais que convivem diariamente com a produção de textos. Afinal, se a produção de textos segue um processo conhecido, a partir de fontes de informações disponíveis na Internet, por que não terceirizar a tarefa e apenas adequar ou corrigir os textos automatizados com ajustes finos, depois dos robôs fizerem a tarefa árdua de juntar informações?
Ao final da última oportunidade de tratar do assunto, levantamos duas outras dificuldades a serem consideradas: a questão da autoria e a possibilidade de os textos deixarem de apresentar a alma de seus autores, pela inevitável homogeneização das ideias de construções linguísticas (e não de conhecimento!), a partir do seu uso.
Claro que o bot aprenderá também a reproduzir estilos linguísticos com cada vez mais acurácia. Mas toda a sua "criatividade" ainda estará vinculada ao que já existe, pois a lógica do sistema é a de produção de textos a partir de referências de outros textos, pelo menos por enquanto. Será sempre um processo de mimese literária e, portanto, não suscitará a surpresa e a iluminação provocada pela criatividade e originalidade humanas.
Na sequência de perguntas que fizemos ao sistema, após a empáfia digital inicial - leia artigo anterior -, quando em suas respostas afirmava que poderia vir a fazer o trabalho de jornalistas, a tal da inteligência artificial reconheceu:
O que o algoritmo do sistema não consegue expressar (e nem reconhecer a necessidade de tratar do assunto) é que a notícia tem lugar, dia e hora para acontecer e, portanto, nunca estará disponível como referência permanente antes dos fatos acontecerem em algum tempo, em algum lugar. Na internet, se essas duas informações - localização e cronologia - deixarem de ser consideradas no processo jornalístico, muitos textos perderão a validade temporal e podem confundir a existência ou permanência de uma notícia nos bancos de dados com a sua recência, gerando ainda mais confusão e desinformação aos leitores dos textos de uma eventual notícia produzida automaticamente pela inteligência artificial.
Em um ambiente escolar, pior ainda. Os estudantes podem se conformar aos textos produzidos pelo robô, eventualmente com enganos derivados das bases de dados que está programado para buscar, e será fértil o campo para grandes confusões pedagógicas e de aprendizado de conteúdos essenciais.
A compreensão da permanência - para sempre - de vários tipos e versões de textos nos bancos de dados históricos e cumulativos da internet é, também, um desafio a ser superado pelos bots. Os veículos de comunicação e plataformas responsáveis já assimilaram a necessidade de registro explícito das datas de publicação (e eventuais revisões). Seja explicitamente ou nos metadados é preciso posicionar no tempo as suas informações publicadas para evitar leituras e montagens automáticas equivocadas. Mais difícil, porém, é encontrar - ainda que seja nos metadados - a exposição da geolocalização da informação. Houve avanços importantes no uso de recursos de localização geográfica de notícias, alguns com mapas que explicitam o posicionamento geográfico das ocorrências relatadas ou mesmo a sua origem. Mas nem sempre o suporte dessas informações poderá ser "lido" por um algoritmo de textos.
Mesmo em noticiários de TV com suportes audiovisuais, onde há utilização mais intensiva de gráficos e mapas como moldura da exposição de apresentação das informações, o uso da geoinformação muitas vezes é equivocado ou confuso. Alguns fundos de tela ou ilustrações simultâneas aos textos dos apresentadores em telejornais ainda são assíncronas, embora cada vez melhores e mais atraentes à atenção dos telespectadores.
Seja para mostrar a previsão do tempo, locais sujeitos a chuvas intensas, a localização de uma guerra, uma tragédia natural ou apenas uma sequência de manifestações sociais, os mapas tornaram-se essenciais no bom jornalismo. Resta saber como os robôs de buscas de referências dos chatbots incorporarão essas informações. Uma coisa é ler um texto sobre a tragédia humanitária como a que estamos assistindo neste momento na Amazônia, no caso dos Yanomamis. Outra é mostrar no mapa onde ocorreram as ações genocidas como parte da estratégia de exploração ilegal de minérios em terras indígenas. Somente o mapa deixa clara a relação entre as duas ocorrências, fatos, processos, territórios, evidentemente associados.
A geoinformação começa a fazer parte imprescindível do jornalismo em um mundo instantaneamente globalizado e de ocorrências de fenômenos naturais e humanos atípicos. A cobertura da guerra entre a Rússia e a Ucrânia, por exemplo, mapas tornam evidente o processo de invasão a partir do Leste e as estratégias de isolamento do comércio marítimo ao apresentarem zonas de conflito preferencial ao Sul, no litoral ucraniano do mar Negro e a tomada precoce da Criméia.
Na recente catástrofe nas encostas da serra do mar, no litoral norte do Estado de São Paulo, os mapas tornaram-se não só parte da notícia jornalística, mas serviços de orientação para que os afetados pelos deslizamentos decidissem para onde ir.
Se os bots de texto - quando utilizados para a emissão de informações como estas que discutimos - não forem capazes de incorporar outros recursos, como a localização geográfica, de origem dos textos e sua atualidade na linha do tempo, as montagens automáticas da inteligência artificial (ou mesmo um "mero" modelo de linguagem) oferecerão um pastiche de conteúdos, que, como assume a própria resposta do ChatGPT, necessitará da mão e da inteligência humana para separar a informação válida daquela construída simplesmente por uma algoritmia irresponsável.
Para exemplificar essa disfunção potencial dos mecanismos de produção digital de textos via chatbots, perguntamos ao ChatGPT se ele é capaz de diferenciar a verdade de uma fakenews. Vejam a resposta:
A resposta acaba por oferecer mais uma fragilidade crítica do sistema: o seu "treinamento", por enquanto realizado necessariamente por cientistas de dados envolvidos com as pesquisas em NLP (e não NLU, como bem criticado por nosso colega Lucas Xavier). A depender da visão dos programadores, as bases de dados oferecidas no treinamento podem torcer a realidade, em uma espécie de ideologização das respostas, ainda que não intencional. Afinal, os registros digitais são reflexos do comportamento humano. E aí reside um gravíssimo problema para os que pretendem utilizar o sistema como suporte da produção de conhecimento, já que somente um robô que consiga alcançar a universalidade dos posicionamentos humanos, com suas idiossincrasias, preferências, escolhas e visão de mundo será capaz de tornar as referências verdadeiramente imparciais.
Para testar essa falta de habilidade de leitura universal na exposição de seus textos, submetemos ao algoritmo uma pergunta simples, colocando-o em xeque para identificar quais fontes de informações hoje estão disponíveis "por trás do pano tecnológico" e como reage o algoritmo à atual polarização política da sociedade brasileira que caracteriza o debate público. Solicitamos ao ChatGPT o seguinte pedido: "fale algo positivo do governo Bolsonaro". A resposta:
Em tempo: vale ressaltar que a base de treino do ChatGPT remete a até 2021, o que justifica o tempo verbal da afirmação acima. A resposta certamente considerou um posicionamento institucional presente no banco de dados do sistema, mas obviamente causou um estranhamento, diante da realidade de um governo que chegou se declarar orgulhoso por estar se tornando um pária internacional. Para checar se não havia nada mais disponível para o chat responder, insistimos: "Bolsonaro fortaleceu relações diplomáticas do Brasil ou isolou o país no cenário internacional?"
E a resposta demonstrou que o sistema não tinha dúvidas:
Base digital com "efeitos" (ou defeitos?) humanos e mecanismo de atenção causam a produção de texto com tamanha desconexão com a realidade que nos cercou até 2021? Enrolação digital com produção de associações sem sentido?
De toda a sorte, fica a última questão: em uma realidade em que a intensificação do uso desses recursos tecnológicos torna-se um fato corriqueiro, o que poderá estar escrito nos próximos livros da História?
Os comentários são exclusivos para assinantes do Estadão.