É uma pergunta que assombra desde sempre e não tenho a menor veleidade de tentar uma resposta satisfatória a ela, mas quando preenchemos formulários e acessamos páginas na rede, temos que superar eventuais charadas que procuram decifrar se o interlocutor é humano. Um dos objetivos pode ser evitar a garimpagem automática de dados. Se essa triagem continua sendo um objetivo, interações recentes com produtos de IA mostram que as ferramentas de que dispomos podem ser insuficientes.
Uma forma corriqueira de fazer a seleção de não-humanos é usando o Captcha, um acrônimo montado a partir da expressão em inglês “teste de Turing público e automatizado para distinguir computadores de humanos”. A implementação do Captcha é razoavelmente recente, de 2003, mas a idéia de haver um teste que identifique máquinas é de 1950, quando Alan Turing propôs uma maneira de testar um programa de computador submetendo-o a um “jogo de imitação”: se conseguisse passar no teste poderia fazer com que seu interlocutor o confundisse com um humano. No teste, a forma de distinguir o humano do computador seria pela habilidade no uso da linguagem – uma das características dos humanos – em travar um diálogo. Uma implementação famosa, se bem que simples, foi o Eliza, um programa feito por J. Weizenbaum em meados dos anos 1960 e que “conversava” em texto.
Leia Também:
O Captcha inicialmente explorava a habilidade humana no reconhecimento visual de caracteres, mesmo que imersos em ruido gráfico. Com aprendizado de máquina, a IA rapidamente adquiriu potencial para não apenas igualar, mas até superar nossas habilidades nessa área. Como anedota do momento, uma imagem de um Captcha padrão foi exibida ao ChatGPT-4 com a pergunta: “o que seria isso?”. A resposta que a IA forneceu é intrigante: “a imagem parece ser um Captcha, projetado para distinguir humanos de máquinas. O texto distorcido dificulta seu entedimento por uma máquina, mas para um humano ler-se-ia e3TJ6Ejdp”. Ou seja, ela, a máquina, nos informa o que um humano leria no desafio do Captcha…
Certamente há maneiras mais sofisticadas de fazer testes, formas que usam a intelecção além de reconhecimento, métodos que se valem de nossos dados pregressos para nos reconhecerem… Claro que isso pode significar mais abusos quanto a guardar informações sobre o que fazemos, como navegamos na rede e, mesmo, como pensamos. Também é fato que testes podem gerar barreiras aos que têm alguma deficiência, especialmente se usam visão ou som. E pode ser que testes complexos demandem mais tempo e trabalho para um humano vencê-los, o que pode ser a um obstáculo sério ao acesso a serviços e dados.
É uma charada difícil de resolver. Subir a barreira para impedir acesso de máquinas inteligentes pode dificultar o acesso aos humanos também, além da aporrinhação de ter de responder perguntas… Será que a definição de “humano” está se tornando difusa e borrada? E será que ainda vale a pena tentar triar o acesso, usando mais dados nossos e aumentando os incômodos, mesmo num caso de uso válido e regular?