Estudo alerta que metade dos jovens usa inteligência artificial para falar sobre sua saúde mental: estes são os riscos de fazê-lo.
O que começou como uma ferramenta para ajudar com a lição de casa ou resumir textos está se tornando um novo tipo de “confidente digital”. Um estudo do Programa de Psicologia da Universidade Manuela Beltrán (UMB) revelou que metade dos jovens colombianos já conversou — ou quer conversar — com uma inteligência artificial (IA) sobre sua saúde mental.

Especialistas alertam que esses “confidentes digitais” não substituem o apoio psicológico. Foto: iStock
Segundo a pesquisa, 26% dos entrevistados já utilizaram ferramentas como ChatGPT ou Gemini para falar sobre suas emoções, enquanto outros 26% planejam fazê-lo no futuro. No geral, 51% dos jovens estão dispostos a confiar seus pensamentos mais íntimos a uma máquina.
“Os jovens estão usando IA para falar sobre saúde mental porque é acessível, permite menos julgamentos e oferece anonimato”, explicou o pesquisador Hans Acero, especialista do Programa de Psicologia da UMB. “Do ponto de vista deles, é mais barato consultar uma inteligência artificial do que um profissional.”
Um fenômeno emocional, não apenas tecnológico. Para os pesquisadores, essa tendência não é impulsionada apenas pela curiosidade de experimentar novas tecnologias, mas sim por uma mudança na forma como as gerações mais jovens lidam com seu bem-estar emocional. “A IA está se tornando uma ferramenta que oferece às pessoas conexão imediata: ela não julga, não cobra e não exige agendamento. É por isso que seu uso está se expandindo para incluir consultas diretas sobre emoções ou questões de saúde mental”, acrescentou Acero.
Entre os temas mais frequentes estão ansiedade, tristeza, gestão do estresse e problemas de autoestima. 19,2% dos jovens buscam aconselhamento sobre como reduzir a ansiedade em público ou lidar com frustrações acadêmicas; 15,7% perguntam sobre sono ou relaxamento; e 14,7% questionam as diferenças entre estresse, tristeza, ansiedade e nostalgia.
O estudo também explorou o quão confiáveis os jovens consideram as respostas que recebem da inteligência artificial. 37% dos entrevistados disseram que só seguem o conselho se o verificarem com um humano; 32% o seguem se "parecer lógico"; e 30% disseram que não confiam na IA e preferem conversar com uma pessoa real.

26% dos jovens já usaram ferramentas como ChatGPT ou Gemini para falar sobre suas emoções. Foto: iStock
Apesar dessa aparente cautela, uma estatística é fundamental: 62% dos jovens reconhecem que as máquinas não compreendem as emoções humanas, mas simplesmente as simulam. No entanto, muitos continuam a vê-las como uma alternativa rápida aos custos, à escassez de consultas ou à dificuldade de acesso a profissionais de saúde mental.
73% das pessoas que usaram essas ferramentas o fizeram apenas uma ou duas vezes, como uma forma rápida de desabafar. Os principais motivos para escolher a IA em vez de um psicólogo incluem disponibilidade 24 horas por dia, 7 dias por semana (17,9%), anonimato e ausência de julgamento (13,6%), custo reduzido ou gratuito (13,6%) e simples curiosidade de experimentar (12,7%).
Riscos de transformar a IA em uma “terapeuta” Pesquisadores da Universidade Manuela Beltrán alertam que, embora a inteligência artificial possa parecer uma ajuda imediata, ela não substitui a intervenção profissional. Entre os riscos mais graves estão a incapacidade de detectar condições clínicas ou risco de suicídio, a possibilidade de fornecer conselhos genéricos ou inadequados e a completa ausência de apoio emocional ou acompanhamento.
Além disso, alertam para um efeito silencioso: o reforço do isolamento emocional. "Você conversa, mas não se conecta", resume o relatório, observando que essas conversas com algoritmos podem criar a ilusão de companheirismo sem oferecer uma conexão real ou empática.

O estudo alerta para riscos como isolamento e uma falsa sensação de apoio emocional. Foto: iStock
O estudo não demoniza o uso da IA, mas enfatiza a necessidade de seu uso criterioso. Especialistas recomendam utilizá-la apenas como ferramenta de orientação, nunca como substituta da terapia. Sugerem também sempre consultar um profissional sobre as respostas, evitar seu uso caso as emoções se agravem e, sobretudo, não torná-la a única forma de expressão emocional.
“A IA responde, mas não acompanha”, conclui o documento, enfatizando que o bem-estar emocional requer presença humana, escuta ativa e apoio profissional.
Sinais de alerta O relatório inclui uma lista de sinais que indicam a necessidade de buscar ajuda terapêutica. Esses sinais incluem tristeza, ansiedade ou irritabilidade que duram mais de duas semanas; problemas para dormir, estudar ou socializar; pensamentos repetitivos ou sensação de vazio; e, principalmente, pensamentos de automutilação ou a sensação de que "nada vale a pena".
Nesses casos, a recomendação é clara: não continue conversando com a IA, mas procure um profissional de saúde mental.
Uma pesquisa da Universidade Manuela Beltrán traz à tona um fenômeno crescente: a digitalização da expressão emocional. Em tempos de algoritmos empáticos e terapeutas virtuais, especialistas nos lembram que a saúde mental continua sendo um domínio profundamente humano.
Jornalista de Meio Ambiente e Saúde
eltiempo


