THE NEW YORK TIMES - Stephenie Lucas Oney tem 75 anos, mas ainda pede conselhos ao pai. Como ele lidou com o racismo, ela se pergunta. Como ele teve sucesso quando tudo estava contra ele?
As respostas estão enraizadas na experiência de William Lucas como um homem negro que ganhava a vida como policial, agente do FBI e juiz. Mas Oney não recebe a orientação pessoalmente. Seu pai está morto há mais de um ano.
Em vez disso, ela ouve as respostas, dadas na voz de seu pai, em seu telefone por meio do HereAfter AI, um aplicativo alimentado por inteligência artificial (IA) que gera respostas com base em horas de entrevistas realizadas com ele antes de sua morte em maio de 2022.
A voz dele lhe dá conforto, mas ela disse que criou o perfil mais para seus quatro filhos e oito netos.
“Quero que as crianças ouçam todas essas coisas na voz dele”, disse a endocrinologista, “e não que eu tente parafrasear, mas que ouçam do ponto de vista dele, do tempo dele e da perspectiva dele”.
Algumas pessoas estão se voltando para a tecnologia de IA como uma forma de se comunicar com os mortos, mas seu uso como parte do processo de luto levantou questões éticas e deixou alguns que fizeram experiências com ela inquietos.
O HereAfter AI foi lançado em 2019, dois anos após o lançamento do StoryFile, que produz vídeos interativos nos quais os participantes parecem fazer contato visual, respirar e piscar enquanto respondem às perguntas. Ambos geram respostas a partir das respostas que os usuários deram a solicitações como “Conte-me sobre sua infância” e “Qual foi o maior desafio que você enfrentou?”
Seu apelo não surpreende Mark Sample, professor de estudos digitais da Davidson College, que ministra um curso chamado Death in the Digital Age (Morte na Era Digital).
“Sempre que há uma nova forma de tecnologia, há sempre esse desejo de usá-la para entrar em contato com os mortos”, disse Sample. Ele mencionou a tentativa fracassada de Thomas Edison de inventar um “telefone espiritual”.
‘Meu melhor amigo estava lá’
O StoryFile oferece uma versão de “alta fidelidade” na qual alguém é entrevistado em um estúdio por um historiador, mas há também uma versão que requer apenas um laptop e uma webcam para começar. Stephen Smith, um dos fundadores, pediu à sua mãe, Marina Smith, educadora sobre o Holocausto, que experimentasse. Seu avatar do StoryFile respondeu a perguntas em seu funeral em julho.
De acordo com o StoryFile, cerca de 5 mil pessoas criaram perfis. Entre elas estava o ator Ed Asner, que foi entrevistado oito semanas antes de sua morte em 2021.
A empresa enviou o StoryFile de Asner para seu filho Matt Asner, que ficou surpreso ao ver seu pai olhando para ele e parecendo responder às perguntas.
“Fiquei impressionado”, disse Matt Asner. “Foi inacreditável para mim como eu poderia ter essa interação com meu pai que era relevante e significativa, e era a personalidade dele. Esse homem de quem eu realmente sentia falta, meu melhor amigo, estava lá.”
Ele tocou o arquivo no serviço fúnebre de seu pai. Algumas pessoas ficaram comovidas, disse ele, mas outras se sentiram desconfortáveis.
“Houve pessoas que acharam mórbido e ficaram assustadas”, disse Asner. “Não compartilho desse ponto de vista”, acrescentou, “mas posso entender por que eles disseram isso”.
‘Um pouco difícil de assistir’
Lynne Nieto também entende. Ela e seu marido, Augie, um dos fundadores da Life Fitness, que fabrica equipamentos de ginástica, criaram um StoryFile antes de sua morte, em fevereiro, por esclerose lateral amiotrófica, ou ELA. Eles pensaram que poderiam usá-lo no site da Augie’s Quest, a organização sem fins lucrativos que fundaram para arrecadar dinheiro para a pesquisa da ELA. Talvez seus netos quisessem assisti-lo algum dia.
Nieto assistiu ao arquivo dele pela primeira vez cerca de seis meses após sua morte.
“Não vou mentir, foi um pouco difícil de assistir”, disse ela, acrescentando que isso a fez lembrar de suas conversas de sábado de manhã e que parecia um pouco “cru” demais.
Esses sentimentos não são incomuns. Esses produtos forçam os consumidores a encarar a única coisa sobre a qual eles são programados para não pensar: a mortalidade.
“As pessoas têm medo da morte e da perda”, disse James Vlahos, cofundador da HereAfter AI, em uma entrevista. “Pode ser difícil de vender porque as pessoas são forçadas a enfrentar uma realidade com a qual preferem não se envolver.”
James Vlahos, cofundador da HereAfter AI
A HereAfter AI surgiu a partir de um chatbot que Vlahos criou para seu pai antes de sua morte por câncer de pulmão em 2017. Vlahos, especialista em IA conversacional e jornalista que já contribuiu para a The New York Times Magazine, escreveu sobre a experiência para a Wired e logo começou a receber mensagens de pessoas perguntando se ele poderia criar um “mãe-bot”, um “esposa-bot” e assim por diante.
“Eu não estava pensando nisso de forma comercializada”, disse Vlahos. “E então ficou cegamente óbvio: isso deveria ser um negócio.”
Uma questão de consentimento e perspectiva
Assim como em outras inovações de IA, os chatbots criados à semelhança de alguém que morreu levantam questões éticas.
Em última análise, é uma questão de consentimento, disse Alex Connock, membro sênior da Saïd Business School da Universidade de Oxford e autor de “The Media Business and Artificial Intelligence”.
“Como todas as linhas éticas da IA, tudo se resume à permissão”, disse ele. “Se você fez isso de forma consciente e voluntária, acho que a maioria das preocupações éticas pode ser contornada com bastante facilidade.”
Os efeitos sobre os sobreviventes são menos claros.
David Spiegel, presidente associado de psiquiatria e ciências comportamentais da Stanford School of Medicine, disse que programas como o StoryFile e o HereAfter AI podem ajudar as pessoas a se recuperarem, como se estivessem vendo um álbum de fotos antigo.
“O fundamental é manter uma perspectiva realista do que você está examinando - que não é que essa pessoa ainda esteja viva, se comunicando com você”, disse ele, “mas que você está revisitando o que ela deixou”.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.