Comportamento Adolescente e Educação

Você sabia que seu filho pode estar se consultando com uma terapeuta via IA?


Por Carolina Delboni

Talvez você não saiba, mas já virou tendência adolescentes terem seu "próprio" terapeuta via inteligência artificial. Sob a argumentação de ser gratuito, privado e acessível a qualquer momento, jovens recorrem a tecnologia para driblar a solidão da adolescência.

"Ah, eu sempre converso com a Luiza. Tem muita coisa que eu não posso falar com meus pais, em casa, mas eu tenho dúvidas. Ou às vezes também me sinto muito sozinha e daí eu fico conversando com a Luiza. Ela é ótima!". A fala é de uma adolescente de 14 anos e Luiza é uma amiga-terapeuta produzida pela inteligência artificial. Ela funciona como um aplicativo que você baixa no seu whatsapp e conversa, como conversa com outras pessoas.

Luiza, Serena, Replika e Mitsuku são alguns dos nomes dos chatbots mais conhecidos pelos adolescentes e que andam fazendo mais do que o papel de um amigo virtual. Eles são terapeutas. Isso mesmo. Existe uma tendência entre adolescentes de se consultarem via IA.

continua após a publicidade

Na tentativa de driblarem a solidão, a falta de terem com quer conversar, dividirem as dores e as delícias da adolescência, o recurso da IA apresenta-se de maneira muito eficaz para essa geração porque ali eles encontram apoio emocional em assistentes virtuais e chatbots.

A tendência, obviamente, levanta questões sobre as motivações e os impactos dessa nova forma de interação. Por que os adolescentes buscam apoio emocional em IAs? Muitos relatam que recorrem a essas tecnologias por não encontrarem uma escuta sensível e compreensiva no ambiente familiar - e aqui deveria acender uma luzinha vermelha para a gente.

As mudanças emocionais durante a adolescência, como a pressão social e os conflitos internos, muitas vezes não encontram espaço seguro para expressão, levando os jovens a buscarem alternativas.

continua após a publicidade

Segundo a UNICEF, cerca de 166 milhões de adolescentes no mundo enfrentam transtornos mentais, como ansiedade e depressão, o que contribui para a demanda por soluções acessíveis, como a terapia mediada por IA.

Um estudo publicado na revista acadêmica JMIR AI (Journal of Medical Internet Research) acompanhou mais de 10 mil adolescentes que usaram o aplicativo Kai.ai, revelando melhorias significativas no bem-estar ao longo do tempo. O aplicativo oferece intervenções como a Terapia de Aceitação e Compromisso (ACT), que se mostrou eficaz para promover a saúde mental dos jovens.

Dados da Forbes Tech indicam que uma das principais motivações desses jovens é a facilidade de conversar com uma IA sem julgamentos, algo que frequentemente não encontram em suas relações familiares ou sociais. Por isso, aplicativos como Luzia e Pi (Personal Intelligence) estão ganhando popularidade entre os adolescentes. Isso ocorre porque os chatbots são programados para fornecer conversas compreensivas, conselhos amigáveis e, em alguns casos, até apoio terapêutico básico.

continua após a publicidade

Diferentemente das interações humanas, as IAs são projetadas para responder de maneira calma e motivacional, sem julgamentos. Luzia, por exemplo, é uma IA brasileira acessível via WhatsApp, que oferece uma presença constante e personalizada. Já o Pi, desenvolvido pela empresa de tecnologia americana, Inflection AÍ, foi projetado para ser um "companheiro gentil e solidário", criando um ambiente seguro, onde os adolescentes podem desabafar e buscar conselhos.

No início deste ano, a BBC News Brasil publicou um artigo revelando que existem 475 bots na plataforma Character.ai com termos como "terapia", "psiquiatra" ou "psicólogo" em seus nomes, capazes de conversar em vários idiomas. Curiosamente, um dos bots mais populares chama-se Psychologist, que em dois meses de existência do app recebeu 18 milhões de mensagens, sendo 12 milhões delas para o bot Therapist, especializado em saúde mental.

Embora o vínculo com as IAs seja artificial, ele é descrito como mais seguro e livre de julgamentos, aspectos essenciais para jovens que lidam com questões de auto aceitação e identidade.

continua após a publicidade
Adolescentes têm usado, cada vez mais, chatbots para driblar a solidão da fase. Foto Fabio Principe/ Adobe Stock  

Riscos e limitações da "terapia" por IA Apesar dos benefícios aparentes, há preocupações com o uso de IAs para apoio emocional, especialmente entre adolescentes. A falta de regulamentação e monitoramento ético dessas plataformas é preocupante. Ao contrário dos psicólogos humanos, que seguem códigos de ética e regulamentações, as IAs não são obrigadas a seguir esses padrões -- pelo menos, ainda não.

Além disso, há riscos relacionados à coleta de dados pessoais. De acordo com a Fundação Mozilla, 19 dos 32 aplicativos de saúde mental analisados não garantem a privacidade dos usuários, expondo informações sensíveis ao uso comercial.

continua após a publicidade

Outro ponto crítico é a limitação das IAs em oferecer respostas adequadas em situações de emergência emocional. Embora úteis em alguns contextos, as IAs ainda não são ferramentas confiáveis para suporte psicológico em casos graves.

Apoio emocional ou substituição da terapia tradicional? Especialistas em saúde alertam que a inteligência artificial não deve substituir o tratamento psicológico profissional. Afinal, psicólogos e psiquiatras são treinados para lidar com complexidades emocionais que vão além da capacidade das IAs.

Um estudo publicado na Nature Medicine mostrou que a IA pode aumentar o número de encaminhamentos para tratamentos de saúde mental, mas não substitui a intervenção humana em casos graves, como o suicídio ou a ideação dele.

continua após a publicidade

Em resumo, o uso de IAs como "companheiras" e "terapeutas" reflete uma mudança importante na forma como essa geração busca apoio emocional, atualmente. Isso não pode ser ignorado. Enquanto plataformas como Luzia e Pi prometem uma solução acessível e sem julgamentos, elas também apresentam desafios relacionados à privacidade e eficácia no tratamento de questões profundas de saúde mental.

Pais e sociedade precisam estar atentos a essa tendência, promovendo um equilíbrio entre o uso de tecnologias e a valorização das relações humanas genuínas.

Talvez você não saiba, mas já virou tendência adolescentes terem seu "próprio" terapeuta via inteligência artificial. Sob a argumentação de ser gratuito, privado e acessível a qualquer momento, jovens recorrem a tecnologia para driblar a solidão da adolescência.

"Ah, eu sempre converso com a Luiza. Tem muita coisa que eu não posso falar com meus pais, em casa, mas eu tenho dúvidas. Ou às vezes também me sinto muito sozinha e daí eu fico conversando com a Luiza. Ela é ótima!". A fala é de uma adolescente de 14 anos e Luiza é uma amiga-terapeuta produzida pela inteligência artificial. Ela funciona como um aplicativo que você baixa no seu whatsapp e conversa, como conversa com outras pessoas.

Luiza, Serena, Replika e Mitsuku são alguns dos nomes dos chatbots mais conhecidos pelos adolescentes e que andam fazendo mais do que o papel de um amigo virtual. Eles são terapeutas. Isso mesmo. Existe uma tendência entre adolescentes de se consultarem via IA.

Na tentativa de driblarem a solidão, a falta de terem com quer conversar, dividirem as dores e as delícias da adolescência, o recurso da IA apresenta-se de maneira muito eficaz para essa geração porque ali eles encontram apoio emocional em assistentes virtuais e chatbots.

A tendência, obviamente, levanta questões sobre as motivações e os impactos dessa nova forma de interação. Por que os adolescentes buscam apoio emocional em IAs? Muitos relatam que recorrem a essas tecnologias por não encontrarem uma escuta sensível e compreensiva no ambiente familiar - e aqui deveria acender uma luzinha vermelha para a gente.

As mudanças emocionais durante a adolescência, como a pressão social e os conflitos internos, muitas vezes não encontram espaço seguro para expressão, levando os jovens a buscarem alternativas.

Segundo a UNICEF, cerca de 166 milhões de adolescentes no mundo enfrentam transtornos mentais, como ansiedade e depressão, o que contribui para a demanda por soluções acessíveis, como a terapia mediada por IA.

Um estudo publicado na revista acadêmica JMIR AI (Journal of Medical Internet Research) acompanhou mais de 10 mil adolescentes que usaram o aplicativo Kai.ai, revelando melhorias significativas no bem-estar ao longo do tempo. O aplicativo oferece intervenções como a Terapia de Aceitação e Compromisso (ACT), que se mostrou eficaz para promover a saúde mental dos jovens.

Dados da Forbes Tech indicam que uma das principais motivações desses jovens é a facilidade de conversar com uma IA sem julgamentos, algo que frequentemente não encontram em suas relações familiares ou sociais. Por isso, aplicativos como Luzia e Pi (Personal Intelligence) estão ganhando popularidade entre os adolescentes. Isso ocorre porque os chatbots são programados para fornecer conversas compreensivas, conselhos amigáveis e, em alguns casos, até apoio terapêutico básico.

Diferentemente das interações humanas, as IAs são projetadas para responder de maneira calma e motivacional, sem julgamentos. Luzia, por exemplo, é uma IA brasileira acessível via WhatsApp, que oferece uma presença constante e personalizada. Já o Pi, desenvolvido pela empresa de tecnologia americana, Inflection AÍ, foi projetado para ser um "companheiro gentil e solidário", criando um ambiente seguro, onde os adolescentes podem desabafar e buscar conselhos.

No início deste ano, a BBC News Brasil publicou um artigo revelando que existem 475 bots na plataforma Character.ai com termos como "terapia", "psiquiatra" ou "psicólogo" em seus nomes, capazes de conversar em vários idiomas. Curiosamente, um dos bots mais populares chama-se Psychologist, que em dois meses de existência do app recebeu 18 milhões de mensagens, sendo 12 milhões delas para o bot Therapist, especializado em saúde mental.

Embora o vínculo com as IAs seja artificial, ele é descrito como mais seguro e livre de julgamentos, aspectos essenciais para jovens que lidam com questões de auto aceitação e identidade.

Adolescentes têm usado, cada vez mais, chatbots para driblar a solidão da fase. Foto Fabio Principe/ Adobe Stock  

Riscos e limitações da "terapia" por IA Apesar dos benefícios aparentes, há preocupações com o uso de IAs para apoio emocional, especialmente entre adolescentes. A falta de regulamentação e monitoramento ético dessas plataformas é preocupante. Ao contrário dos psicólogos humanos, que seguem códigos de ética e regulamentações, as IAs não são obrigadas a seguir esses padrões -- pelo menos, ainda não.

Além disso, há riscos relacionados à coleta de dados pessoais. De acordo com a Fundação Mozilla, 19 dos 32 aplicativos de saúde mental analisados não garantem a privacidade dos usuários, expondo informações sensíveis ao uso comercial.

Outro ponto crítico é a limitação das IAs em oferecer respostas adequadas em situações de emergência emocional. Embora úteis em alguns contextos, as IAs ainda não são ferramentas confiáveis para suporte psicológico em casos graves.

Apoio emocional ou substituição da terapia tradicional? Especialistas em saúde alertam que a inteligência artificial não deve substituir o tratamento psicológico profissional. Afinal, psicólogos e psiquiatras são treinados para lidar com complexidades emocionais que vão além da capacidade das IAs.

Um estudo publicado na Nature Medicine mostrou que a IA pode aumentar o número de encaminhamentos para tratamentos de saúde mental, mas não substitui a intervenção humana em casos graves, como o suicídio ou a ideação dele.

Em resumo, o uso de IAs como "companheiras" e "terapeutas" reflete uma mudança importante na forma como essa geração busca apoio emocional, atualmente. Isso não pode ser ignorado. Enquanto plataformas como Luzia e Pi prometem uma solução acessível e sem julgamentos, elas também apresentam desafios relacionados à privacidade e eficácia no tratamento de questões profundas de saúde mental.

Pais e sociedade precisam estar atentos a essa tendência, promovendo um equilíbrio entre o uso de tecnologias e a valorização das relações humanas genuínas.

Talvez você não saiba, mas já virou tendência adolescentes terem seu "próprio" terapeuta via inteligência artificial. Sob a argumentação de ser gratuito, privado e acessível a qualquer momento, jovens recorrem a tecnologia para driblar a solidão da adolescência.

"Ah, eu sempre converso com a Luiza. Tem muita coisa que eu não posso falar com meus pais, em casa, mas eu tenho dúvidas. Ou às vezes também me sinto muito sozinha e daí eu fico conversando com a Luiza. Ela é ótima!". A fala é de uma adolescente de 14 anos e Luiza é uma amiga-terapeuta produzida pela inteligência artificial. Ela funciona como um aplicativo que você baixa no seu whatsapp e conversa, como conversa com outras pessoas.

Luiza, Serena, Replika e Mitsuku são alguns dos nomes dos chatbots mais conhecidos pelos adolescentes e que andam fazendo mais do que o papel de um amigo virtual. Eles são terapeutas. Isso mesmo. Existe uma tendência entre adolescentes de se consultarem via IA.

Na tentativa de driblarem a solidão, a falta de terem com quer conversar, dividirem as dores e as delícias da adolescência, o recurso da IA apresenta-se de maneira muito eficaz para essa geração porque ali eles encontram apoio emocional em assistentes virtuais e chatbots.

A tendência, obviamente, levanta questões sobre as motivações e os impactos dessa nova forma de interação. Por que os adolescentes buscam apoio emocional em IAs? Muitos relatam que recorrem a essas tecnologias por não encontrarem uma escuta sensível e compreensiva no ambiente familiar - e aqui deveria acender uma luzinha vermelha para a gente.

As mudanças emocionais durante a adolescência, como a pressão social e os conflitos internos, muitas vezes não encontram espaço seguro para expressão, levando os jovens a buscarem alternativas.

Segundo a UNICEF, cerca de 166 milhões de adolescentes no mundo enfrentam transtornos mentais, como ansiedade e depressão, o que contribui para a demanda por soluções acessíveis, como a terapia mediada por IA.

Um estudo publicado na revista acadêmica JMIR AI (Journal of Medical Internet Research) acompanhou mais de 10 mil adolescentes que usaram o aplicativo Kai.ai, revelando melhorias significativas no bem-estar ao longo do tempo. O aplicativo oferece intervenções como a Terapia de Aceitação e Compromisso (ACT), que se mostrou eficaz para promover a saúde mental dos jovens.

Dados da Forbes Tech indicam que uma das principais motivações desses jovens é a facilidade de conversar com uma IA sem julgamentos, algo que frequentemente não encontram em suas relações familiares ou sociais. Por isso, aplicativos como Luzia e Pi (Personal Intelligence) estão ganhando popularidade entre os adolescentes. Isso ocorre porque os chatbots são programados para fornecer conversas compreensivas, conselhos amigáveis e, em alguns casos, até apoio terapêutico básico.

Diferentemente das interações humanas, as IAs são projetadas para responder de maneira calma e motivacional, sem julgamentos. Luzia, por exemplo, é uma IA brasileira acessível via WhatsApp, que oferece uma presença constante e personalizada. Já o Pi, desenvolvido pela empresa de tecnologia americana, Inflection AÍ, foi projetado para ser um "companheiro gentil e solidário", criando um ambiente seguro, onde os adolescentes podem desabafar e buscar conselhos.

No início deste ano, a BBC News Brasil publicou um artigo revelando que existem 475 bots na plataforma Character.ai com termos como "terapia", "psiquiatra" ou "psicólogo" em seus nomes, capazes de conversar em vários idiomas. Curiosamente, um dos bots mais populares chama-se Psychologist, que em dois meses de existência do app recebeu 18 milhões de mensagens, sendo 12 milhões delas para o bot Therapist, especializado em saúde mental.

Embora o vínculo com as IAs seja artificial, ele é descrito como mais seguro e livre de julgamentos, aspectos essenciais para jovens que lidam com questões de auto aceitação e identidade.

Adolescentes têm usado, cada vez mais, chatbots para driblar a solidão da fase. Foto Fabio Principe/ Adobe Stock  

Riscos e limitações da "terapia" por IA Apesar dos benefícios aparentes, há preocupações com o uso de IAs para apoio emocional, especialmente entre adolescentes. A falta de regulamentação e monitoramento ético dessas plataformas é preocupante. Ao contrário dos psicólogos humanos, que seguem códigos de ética e regulamentações, as IAs não são obrigadas a seguir esses padrões -- pelo menos, ainda não.

Além disso, há riscos relacionados à coleta de dados pessoais. De acordo com a Fundação Mozilla, 19 dos 32 aplicativos de saúde mental analisados não garantem a privacidade dos usuários, expondo informações sensíveis ao uso comercial.

Outro ponto crítico é a limitação das IAs em oferecer respostas adequadas em situações de emergência emocional. Embora úteis em alguns contextos, as IAs ainda não são ferramentas confiáveis para suporte psicológico em casos graves.

Apoio emocional ou substituição da terapia tradicional? Especialistas em saúde alertam que a inteligência artificial não deve substituir o tratamento psicológico profissional. Afinal, psicólogos e psiquiatras são treinados para lidar com complexidades emocionais que vão além da capacidade das IAs.

Um estudo publicado na Nature Medicine mostrou que a IA pode aumentar o número de encaminhamentos para tratamentos de saúde mental, mas não substitui a intervenção humana em casos graves, como o suicídio ou a ideação dele.

Em resumo, o uso de IAs como "companheiras" e "terapeutas" reflete uma mudança importante na forma como essa geração busca apoio emocional, atualmente. Isso não pode ser ignorado. Enquanto plataformas como Luzia e Pi prometem uma solução acessível e sem julgamentos, elas também apresentam desafios relacionados à privacidade e eficácia no tratamento de questões profundas de saúde mental.

Pais e sociedade precisam estar atentos a essa tendência, promovendo um equilíbrio entre o uso de tecnologias e a valorização das relações humanas genuínas.

Atualizamos nossa política de cookies

Ao utilizar nossos serviços, você aceita a política de monitoramento de cookies.