Rubens de Almeida, Engenheiro e jornalista, dedicado a temas urbanos e organização de dados sobre mapas digitais e fundador do GisBI, mestrando em Gestão e Políticas Públicas (MPGPP) na FGV EAESP
Eduardo de Rezende Francisco, Professor de GeoAnalytics, Chefe do Departamento de Tecnologia e Data Science da FGV EAESP e fundador do GisBI
Os chatbots, ao que parece, vieram para ficar. Quem não fica impressionado com uma inteligência artificial que produz textos como humanos, sobre qualquer assunto, na linguagem e no estilo que for solicitado, com detalhamento impressionante, em questão de segundos?
E, pelas experiências que vêm sendo realizadas por experts, jornalistas e professores, quase sempre o faz com alguma competência linguística e de conteúdo, ainda que demonstre visões simplificadas sobre os temas tratados e uma ingenuidade que, provavelmente, se deve ao "treinamento" ainda limitado recebido pelo robô-escritor.
Em um país como o Brasil, que se comunica muito mal, lê com sérias limitações de compreensão e nos últimos anos adotou a contração linguística da rede social como via preferencial para expressar publicamente seus pensamentos, raciocínios, ódios e afetos, saber escrever um texto ou saber como obter um texto pronto, sem muito trabalho, pode ser um diferencial e tanto para melhor se posicionar no mercado de trabalho e até mesmo em situações dentro do mundo acadêmico ou na vida civil, no momento de fazer um contrato, uma proposta ou uma resposta a indagações por escrito. Quiçá produzir um artigo acadêmico ou um resumo compilado sobre determinado assunto!
Talvez por isso, o mais famoso desses bots no momento, o ChatGPT, tenha causado frisson nas primeiras semanas de testes públicos e incorporação de suas habilidades (e limitações) à realidade das redações jornalísticas, ambientes universitários, estudiosos da linguagem e o público geral. E fica uma dúvida: com a evolução desses sistemas, o que acontecerá com o escritor humano. Ele ainda será necessário?
A tecnologia que se apresenta - GPT, ou Generative Pretrained Transformer - é a evolução da inteligência artificial, mais precisamente no ramo de Deep Learning, treinada previamente a partir de uma quantidade absurdamente grande de informações em formato de texto e preparada para responder (de maneira impressionante) a perguntas em linguagem natural em praticamente todas as línguas ocidentais usuais.
A poderosa Microsoft promete adotar a ferramenta em todas as suas frentes de aplicativos, o que pode determinar um espalhamento rápido da aplicação da chamada Inteligência Artificial para a produção de textos nas escolas, nas empresas, na disponibilização de documentos jurídicos e até na criação de conteúdos mais pretensiosos e críticos, como teses acadêmicas e reportagens. Até então, as técnicas de NLP (ou Processamento de Linguagem Natural, em português) estavam mais focadas na compreensão de textos e/ou catalogação de demandas, preferências ou reclamações derivadas de sistemas de atendimento de call centers, de modo a otimizar respostas e até automatizar algumas reações e serviços. Com a exposição das habilidades de escrita, até mesmo as perspectivas do NLP mudaram. Segundo a turma de Data Science que estuda o tema, estamos inaugurando o conceito de NLU (Natural Language Understanding), trocando o "P" pelo "U", que significa entendimento, compreensão ou inteligência, entre muitas aspas, mesmo sabendo que o domínio da cognição pelas máquinas é uma discussão filosófica profunda e não cabe neste nosso artigo por enquanto.
O fato é que o tal "chat" não se faz de rogado: perguntado se ele pode produzir reportagens jornalísticas, respondeu que sim e que:
E prossegue:
Para um velho jornalista e escritor e um outro professor e cientista da computação, a resposta arrogante pode soar como uma ameaça. Afinal, até há pouco, o que diferenciava um bom profissional era sua capacidade de processar informações e distribuí-las com competência, tarimba e sagacidade em um texto que supostamente ganharia leitura pelas estratégias linguísticas autorais e narrativas únicas adotadas por seu autor.
Na mesma resposta, o bot também teve o cuidado de alertar o que é preciso fazer para produzir notícias jornalísticas de qualidade:
Um professor universitário de comunicação e semiótica não faria melhores alertas. A dúvida que fica é se o humanoide que dá recomendações será capaz de segui-las.
Um temerário "erro" do robô, porém - nesta consulta específica - foi considerar que a produção de notícias jornalísticas de qualidade pode se resumir ao que no jargão dos jornalistas é conhecido como "cozinha" de outras fontes jornalísticas e/ou bibliotecárias. O bot "esqueceu" ou talvez não tenha considerado nessa resposta que notícias ou matérias jornalísticas não se iniciam com "o tema da notícia que deseja escrever" ou ainda a partir de textos ou outros materiais jornalísticos ou de referências já produzidos e disponíveis sobre um fato que se deseja relatar; mas sim, de alguma ocorrência da vida real das pessoas.
A produção de um texto (hoje em dia fotos, vídeos e áudios) original e, portanto, jornalístico sobre determinado fato ou ocorrência deve necessariamente ir ao encontro da notícia, na realidade da vida, da política, da polícia, da tragédia ou qualquer outra ocasião que seja do interesse do público-leitor, a partir de fontes primárias de informação. Se não fizer isso, não se produzirá textos jornalísticos verdadeiros e originais, mas apenas reproduzindo partes de textos e informações que alguém já disponibilizou nas redes.
A mesma análise poderá ser feita em breve quando começarem a pipocar textos produzidos por bots nas escolas, universidades ou tribunais. Não se trata apenas de aproveitá-los e fazer adaptações que os tornem mais críveis, menos ingênuos ou mais autorais. Será preciso verificar a sua originalidade em termos de ideias e reflexões realmente realizadas por seus autores. Ideias que sejam inéditas e verdadeiramente vinculadas ao intelecto de quem as produziu.
Na produção jornalística, da mesma forma, o texto que sairá do aplicativo (ou do modelo de Inteligência Artificial) será mais ou menos convidativo e/ou agradável aos leitores, conforme o estilo escolhido por quem o solicitou junto ao ChatGPT. Mas não terá vínculo direto com o real, com o palpável, com a localização concreta de um evento ou episódio da vida real relatado. Qualquer texto escrito à distância carecerá de alma e, principalmente, não aterrissará sobre o território dos humanos, pois virá de um conjunto de referências digitais sem vínculos físicos diretos com os fatos que pretenderá relatar. Será mais um relato de outros relatos. Será vazio de autoria e correrá o risco de ser restrito à base de dados e referências que o sistema estará programado para acessar e manipular na produção de um novo texto, a partir de uma solicitação do usuário.
No âmbito da academia, em praticamente qualquer ramo da ciência, as questões e preocupações são essencialmente de mesma natureza. Caberá ao chatbot a tarefa de auxiliar o pesquisador na compilação e articulação de referências ou em alguma medida seu trabalho irá muito além disso?
O texto como expressão e reflexão da realidade, crível e profundo como um ser humano o faria, poderá ser produzido pela inteligência artificial generativa que ora se apresenta?
Papo para um próximo artigo, escrito (supostamente) por estes meros autores humanos...