A Meta AI, nova ferramenta de inteligência artificial (IA) da companhia de Mark Zuckerberg, chegou ao WhatsApp de muitos brasileiros na segunda quinzena de outubro. Mais do que colocar a gigante na briga pela supremacia da tecnologia, junto com Google e OpenAI, a ferramenta aparece como uma importante janela para que todo o campo da IA generativa rompa a bolha de curiosos e early adopeters e massifique a tecnologia.
O caminho parece bem claro. O WhatsApp tem cerca de 2 bilhões de usuários ao redor do mundo e, no Brasil, é o principal serviço de bate-papo. Segundo a Meta, são 120 milhões de usuários no País - todos têm acesso à nova ferramenta. Assim, a inclusão de um chatbot esperto dentro do aplicativo pode fazer com que a relação dos usuários com plataformas desse modelo mude, e deixe de ser uma prática mais “nichada”.
Não que o ChatGPT seja uma ferramenta desconhecida. Atualmente, o Brasil é o quarto país com mais acessos na ferramenta, atrás dos Estados Unidos, Índia e Indonésia. Segundo a Traffic Analytics, são 123 milhões de acessos por mês. No entanto, sua popularização ocorreu mais rapidamente em bolhas, como no mundo corporativo ou no universo da educação. Não é algo comparável ao WhatsApp.
“Com o WhatsApp, as pessoas vão utilizar as IAs. Acho que vai massificar bastante. Até aqui, eram serviços utilizados por gente de tecnologia ou áreas relacionadas”, explica Lisane Andrade, fundadora da startup IA Niara, que utiliza IA generativa para marketing.
Como a massificação pode ocorrer
Além do enorme número de pessoas em contato com a tecnologia, a facilidade para operar a ferramenta aumenta as chances de sucesso. “Só o fato da interface ser familiar já ajuda. Você vê um botãozinho ali e só clica nele. Você já está acostumado, sabe o que é um chat. Eu acho que isso pode ajudar a disseminar bem mais”, afirma Rodrigo Nogueira, CEO e fundador da startup Maritaca AI, que desenvolve modelos especializados em português.
É um potencial que já havia sido avistado no ano passado. Após o sucesso do ChatGPT, a startup espanhola LuzIA passou a operar um chatbot inteligente dentro do WhatsApp capaz de responder perguntas, transcrever áudios e gerar imagens. O sucesso resultou em um aporte de US$ 10 milhões em outubro do ano passado. No entanto, a companhia abandonou o WhatsApp, alegando que os custos de operação impostos pela Meta eram altos demais - era um sinal de que a gigante queria marcar território no seu app.
Outro indício do poder de distribuição do mensageiro é o fato de a Microsoft também ter estreado um chatbot inteligente dentro do aplicativo, o Copilot, marca usada pela empresa fundada por Bill Gates para seus assistentes de IA. “Conversar todo mundo sabe”, diz Anderson Soares, coordenador do Centro de Excelência em Inteligência Artificial da Universidade Federal de Goiás (UFG). “Sem dúvidas, o WhatsApp vai ajudar a gente a evoluir e exercitar as possibilidades”, diz.
O poder de distribuição ocorre mesmo que a contragosto dos usuários. “Existe uma alta chance que pessoas que não se interessam muito por grandes modelos de linguagem (LLMs) sintam-se forçados a usar por fatores sociais: para não serem entendidos como ‘ultrapassados’ ou ‘por fora’ de uma nova tecnologia que é tida como revolucionária. Ou mesmo porque, como big techs fazem comumente, porque não terão opção”, afirma João C. Magalhães professor de mídia, política e democracia na Universidade de Groningen, na Holanda.
De fato, uma parcela dos usuários estranhou a novidade nos últimos dias e muitos se surpreenderam com o fato de ser impossível desabilitar a Meta AI. O símbolo da IA sempre vai aparecer na barra de pesquisa do WhatsApp - e nas mensagens privadas do Instagram.
A própria implementação do recurso gerou controvérsia no Brasil e só foi possível depois da empresa resolver pendências com a Autoridade Nacional de Proteção de Dados (ANPD) sobre o uso de dados para treinamento das IAs.
A Meta adiou o lançamento do Meta AI no País devido a preocupações com a privacidade dos dados dos usuários. A empresa havia atualizado seus termos de uso para permitir o uso de dados públicos para treinar sua IA, o que gerou reações da ANPD e de órgãos de defesa do consumidor. Após o impasse, a Meta se comprometeu a ser mais transparente sobre a coleta de dados e a oferecer aos usuários a opção de recusar o uso de suas informações para o treinamento da IA.
Leia também
Pode dar errado
Se por um lado o WhatsApp pode turbinar o avanço da IA generativa, o app também pode jogar luz sobre os diversos problemas e erros que sistemas do tipo podem gerar - conhecidos como “alucinações”. O aumento do acesso a essa tecnologia amplifica o contato com notícias e informações falsas.
A preocupação é maior justamente porque o WhatsApp vai colocar grupos mais ‘vulneráveis’ e contato com os problemas da tecnologia. Em testes do Estadão, a Meta AI alucinou em temas como cultura, política e matemática, além de apresentar respostas pouco claras sobre saúde. O rápido progresso da IA como fonte de pesquisa e informação facilita a ação de comportamentos mal intencionados.
“A gente vai ter muito mais informações erradas e quem não sabe utilizar a IA vai acreditar que aquilo é verdade. Ela exige um conhecimento maior”, diz Lisane. A especialista acredita que os erros e a proliferação de notícias erradas devem aumentar.
A Meta diz que toma medidas para evitar que alucinações dominem a Meta AI. “São aplicadas defesas tanto no prompt, quanto na resposta. Para incentivar a Meta AI a compartilhar respostas úteis e mais seguras que estejam de acordo com suas diretrizes, são implementados filtros nas solicitações enviadas pelos usuários e nas respostas depois de serem geradas pelo modelo, mas antes de serem mostradas ao usuário”, afirmou a companhia em nota para o Estadão.
A gigante afirmou também que usuários podem denunciar mensagens inadequadas ou imprecisas recebidas da Meta AI. O feedback seria usado para continuar treinando os modelos para que tenham menos probabilidade de produzir resultados potencialmente prejudiciais.
“Pelo menos em curto prazo, devemos pensar em protocolos cada vez mais seguros antes de lançar essas IAs. Acho que os governos precisam pensar em políticas públicas sobre isso - no exterior isso já é muito debatido. Caso contrário, isso tudo vai gerar muito prejuízo”, afirma Nogueira.