A popularização de ferramentas de inteligência artificial (IA) voltadas para o suporte emocional e psicológico tem crescido nos últimos anos, impulsionada pela busca por atendimento acessível, rápido e sem filas. Chatbots e aplicativos prometem ouvir, aconselhar e até sugerir técnicas de enfrentamento emocional para quem passa por momentos difíceis. No entanto, especialistas alertam: o uso da IA como substituto da terapia humana pode representar sérios riscos à saúde mental.
Curta, siga e se inscreva nas nossas redes sociais:
Facebook | X | Instagram | YouTube | Bluesky
Sugira uma reportagem. Mande uma mensagem para o nosso WhatsApp.
Entre no canal do Revista Cariri no Telegram e veja as principais notícias do dia.
Profissionais apontam limitações importantes
“Inteligência artificial pode ser útil em algumas situações, como lembretes de rotina ou orientações básicas, mas não deve substituir o vínculo humano construído na terapia”, afirma ao Revista Cariri a psicóloga clínica Luciana Prado. Para ela, a IA não é capaz de captar nuances emocionais, expressões faciais ou sinais não verbais que são fundamentais para um bom atendimento terapêutico.
O psiquiatra Marcelo Diniz concorda. “Estamos falando de pessoas fragilizadas, que muitas vezes buscam acolhimento e escuta ativa. Um algoritmo, por mais bem treinado que seja, não oferece empatia verdadeira nem adaptação emocional em tempo real.”
Risco de respostas inadequadas
Outro ponto de atenção está na qualidade e responsabilidade das respostas dadas pelas ferramentas. Há casos em que usuários receberam orientações genéricas ou até contraproducentes, como normalizar sintomas de ansiedade grave ou não reconhecer sinais de risco iminente, como ideação suicida.
“Um erro de interpretação de contexto por parte de uma IA pode custar caro”, afirma Diniz. “Principalmente se a pessoa estiver sozinha e depender exclusivamente daquele atendimento virtual.”
O que dizem os pacientes
Relatos de usuários dessas plataformas revelam experiências mistas. A estudante Júlia*, de 23 anos, relata ao Revista Cariri que começou a usar um aplicativo de IA para lidar com crises de ansiedade noturnas. “No começo achei ótimo, ele me respondia rápido e parecia entender o que eu sentia. Mas depois percebi que era tudo muito repetitivo, como se estivesse falando com um robô mesmo. Em momentos mais difíceis, senti que faltava sensibilidade.”
Já Lucas*, de 29 anos, teve uma impressão diferente. “Me ajudou a organizar pensamentos, desabafar de madrugada, quando ninguém mais estava disponível. Mas nunca pensei em substituir minha psicóloga.”
Falta de regulação e supervisão
Outro problema grave está na ausência de regulamentação. Ao contrário dos profissionais da saúde, que seguem códigos de ética e passam por supervisão, a atuação de ferramentas de IA em saúde mental ainda é praticamente livre. Isso inclui o uso de dados pessoais, que muitas vezes são coletados e processados sem o consentimento claro do usuário.
Luciana Prado aponta que “não existe, hoje, uma legislação robusta que diga como, quando e com que limites a IA pode operar nesses casos. Isso coloca o paciente em uma posição de risco invisível.”
Uso complementar, não substitutivo
Especialistas defendem que a IA pode sim ter um papel complementar — como uma ferramenta de apoio entre sessões de terapia, fornecendo lembretes de autocuidado, orientações sobre técnicas de respiração ou diários emocionais interativos. Mas isso não deve ser confundido com um processo terapêutico completo, conduzido por profissionais capacitados.
“É como comparar um aplicativo de dieta com um nutricionista. Um ajuda, o outro trata”, conclui Diniz.
✅ O que considerar antes de buscar apoio em IA:
• Busque ajuda profissional sempre que possível, principalmente em casos de sofrimento intenso.
• Se for usar ferramentas digitais, verifique se há supervisão profissional por trás.
• Não confie em diagnósticos ou orientações médicas fornecidos por IA sem validação humana.
• Lembre-se de que o acolhimento, a escuta e o vínculo humano ainda são insubstituíveis no cuidado com a saúde mental.
(*) Nomes fictícios a pedido dos entrevistados.
Por Nicolas Uchoa










