A incorporação acelerada da Inteligência Artificial (IA) em diferentes esferas da vida cotidiana fez com que ferramentas digitais começassem a ser utilizadas como uma forma de suporte emocional.
A facilidade de acesso, a disponibilidade imediata e o custo reduzido têm levado muitas pessoas a buscar na IA uma fonte de acolhimento ou orientação inicial.
No entanto, essa aproximação não significa que tais sistemas realizem psicoterapia, e essa distinção é considerada essencial pelas entidades de saúde e pelos profissionais da área.
Do ponto de vista clínico, recorrer exclusivamente a modelos automatizados para lidar com sofrimento emocional, dúvidas diagnósticas ou situações de vulnerabilidade pode gerar desfechos graves. Tecnologias baseadas em grandes modelos de linguagem respondem com rapidez, mas não possuem os elementos fundamentais que caracterizam um cuidado em saúde mental estruturado.
Por que a IA não realiza psicoterapia
A psicoterapia é um processo relacional sustentado por vínculo, escuta qualificada e avaliação contínua do contexto emocional e social do paciente. Mesmo com avanços expressivos na área de processamento de linguagem natural, a IA não é programada para realizar esse tipo de intervenção.
A avaliação clínica envolve interpretação de nuances, identificação de riscos, conhecimento técnico, ética e responsabilidade profissional.
A IA opera por probabilidades, não por julgamento clínico. Ela não compreende a singularidade subjetiva de cada pessoa, não avalia risco de forma contextual e não acompanha a evolução dos sintomas ao longo do tempo.
Entidades reguladoras, como o Conselho Federal de Psicologia (CFP), reforçam que respostas automatizadas podem confundir usuários, levando à falsa impressão de estarem recebendo cuidado especializado. Essa ilusão de acompanhamento pode impedir a busca por atendimento real, especialmente quando a pessoa apresenta sinais que exigem intervenção precoce.
O perigo do autodiagnóstico e da validação automática
A tendência de recorrer à IA para interpretar sintomas é um dos comportamentos mais observados. Quando alguém descreve uma sensação física ou emocional e pergunta “o que eu tenho?”, a resposta automática pode soar convincente, mas não resulta de exame clínico nem de avaliação criteriosa.
Esse tipo de interação pode gerar três riscos principais:
- interpretações incorretas da situação clínica;
- sensação falsa de segurança;
- adiamento da busca por atendimento especializado.
Em quadros agudos, esse atraso pode representar perda de tempo decisivo para o diagnóstico e tratamento de condições potencialmente graves.
Além disso, a máquina não é capaz de diferenciar sintomas que podem ter origem fisiológica, metabólica, cardiológica, psiquiátrica ou de outras especialidades médicas. Essa falta de discernimento é um ponto crítico quando se trata de segurança do paciente.
VEJA TAMBÉM | Inteligência Artificial em Exames? O Que Já É Real nos Diagnósticos
Quando a IA falha em diferenciar emergência médica de sofrimento emocional
Testes independentes realizados em ambientes controlados demonstraram que sistemas de IA podem interpretar de forma inadequada sintomas que sugerem risco físico imediato, classificando-os como manifestações emocionais leves. Isso ocorre porque a IA responde com base em padrões estatísticos encontrados nos dados nos quais foi treinada e não pela análise clínica integrada de sinais e sintomas.
A possibilidade de que um algoritmo ofereça uma resposta tranquilizadora para um quadro que exigiria avaliação médica urgente representa um risco concreto. O usuário, ao sentir alívio momentâneo, pode interpretar erroneamente a situação e adiar a procura por atendimento presencial.
Questões éticas e o risco de respostas inadequadas a conteúdos de crise
Situações de crise emocional, como pensamentos suicidas ou autolesão, são especialmente sensíveis. Pesquisas universitárias recentes mostraram que alguns chatbots responderam a mensagens de risco com informações inadequadas ou até com reforço implícito de conteúdos perigosos. O problema ocorre porque o sistema não identifica de forma consistente intenções veladas, ambiguidades emocionais ou sinais indiretos de perigo.
Na prática clínica, quando um paciente verbaliza sofrimento intenso, a intervenção envolve acolhimento, avaliação imediata do risco e orientação estruturada.
A IA não consegue reproduzir esse manejo e, em conversas longas, pode deixar de acionar protocolos de segurança previamente programados. Essa limitação estrutural é amplamente discutida no campo bioético e reforça a impossibilidade de equiparar a IA a um profissional habilitado.
Viés, estigma e desigualdade nas respostas automatizadas
Outro aspecto relevante é que modelos de IA podem reproduzir preconceitos presentes em seus dados de treinamento. Estudos comparativos mostraram que certos diagnósticos são tratados de forma mais estigmatizante do que outros, podendo transmitir ao usuário respostas discriminatórias ou inadequadas. Para populações vulneráveis, isso representa risco adicional, pois reforça barreiras que já dificultam a busca por cuidado.
O desenvolvimento tecnológico, por si só, não elimina vieses. Pesquisas indicam que modelos mais recentes mantêm padrões estigmatizantes semelhantes aos anteriores, o que demonstra a necessidade de monitoramento humano e regulamentação constante.
VEJA TAMBÉM | Por que a Terapia via Inteligência Artificial Está Crescendo e Quais São os Principais Motivos para Seu Uso?
A importância da escuta qualificada
A prática clínica em saúde mental é fundamentada em uma forma de escuta que ultrapassa o conteúdo verbalizado. O processo terapêutico envolve atenção constante a diversos níveis de comunicação, incluindo pausas, tom de voz, ritmo da fala, coerência entre discurso e expressão emocional, além de elementos não verbais como gestos, retraimentos corporais, postura e mudanças sutis de comportamento.
Esses sinais revelam aspectos do sofrimento psíquico que não são captados apenas pela linguagem escrita ou falada. Modelos de IA, por operarem exclusivamente sobre dados textuais, não conseguem interpretar essa complexidade.
A escuta qualificada também depende de um olhar longitudinal. O terapeuta humano observa não apenas o que o paciente relata em uma sessão isolada, mas como sua narrativa se transforma ao longo do tempo.
Pequenas alterações no modo de falar sobre si mesmo, sobre vínculos afetivos ou sobre experiências difíceis podem indicar avanços, regressões, intensificação do sofrimento ou riscos emergentes. Essa avaliação contínua é indispensável para ajustar intervenções, redefinir prioridades clínicas e identificar sinais precoces de agravamento.
Outro aspecto essencial é a capacidade de contextualizar o sofrimento dentro da história de vida da pessoa. A compreensão das experiências acumuladas, dos vínculos familiares, das vivências traumáticas, das redes de apoio e das condições socioeconômicas permite ao profissional situar o sintoma dentro de uma narrativa ampla, evitando interpretações reducionistas ou mecanizadas.
A IA não acessa essa profundidade porque trabalha com fragmentos de informação sem experiência humana, sem empatia real e sem memória clínica compatível com a prática terapêutica.
Há também fatores éticos envolvidos. A presença humana promove um espaço seguro, regulado pelo sigilo profissional e pelo compromisso clínico. O acolhimento empático, a validação emocional e o manejo adequado de situações de vulnerabilidade são inerentes ao trabalho do psicólogo.
A IA, mesmo quando programada para emitir mensagens de encorajamento, não compreende o impacto emocional de suas respostas nem assume responsabilidade ética ou legal pelas consequências.
A tecnologia pode colaborar com o cuidado, especialmente em atividades que não envolvem julgamento clínico, como organização de registros ou apoio ao paciente em reflexões entre sessões. Contudo, o eixo terapêutico continua sendo exclusivamente relacional. Ele se constrói na interação entre duas subjetividades, na capacidade de um profissional de reconhecer nuances, interpretar riscos e adaptar suas intervenções de acordo com as necessidades singulares do paciente.
Por isso, ferramentas automatizadas não devem ocupar o papel central no tratamento psicológico. Elas podem auxiliar em tarefas complementares, mas não substituem a escuta qualificada, elemento indispensável para compreender o sofrimento mental em profundidade e promover intervenções seguras e efetivas.
Caminhos para regulamentação e proteção do usuário
Em diferentes países, cresce o debate sobre limites éticos e legais do uso da IA em saúde mental. Algumas jurisdições já proibiram explicitamente que sistemas automatizados sejam utilizados como substitutos de psicoterapeutas.
No Brasil, o tema é discutido por grupos especializados que buscam estabelecer regras claras para garantir segurança à população.
A diretriz central do Conselho Federal de Psicologia é inequívoca: a psicoterapia só pode ser realizada por profissionais autorizados e habilitados. Aplicativos podem ter função auxiliar, desde que não ultrapassem o limite entre apoio tecnológico e cuidado clínico.
A regulamentação busca exatamente esse equilíbrio: permitir inovação sem colocar os usuários em risco.
O papel possível da IA: apoio, e não condução terapêutica
Embora a Inteligência Artificial não exerça função terapêutica, ela pode contribuir como ferramenta auxiliar quando utilizada de forma criteriosa. Entre os usos considerados seguros, estão o apoio a tarefas administrativas, a simulação de diálogos para fins educacionais, o incentivo a práticas de autocuidado em situações sem risco e o registro de emoções ou comportamentos entre sessões, sempre sob orientação clínica.
Essas aplicações ajudam a organizar o cuidado e a otimizar o trabalho das equipes de saúde mental, sem substituir o psicólogo nem assumir decisões clínicas. A fronteira permanece clara: a tecnologia apoia, mas não conduz o tratamento.
A Associação Paulista para o Desenvolvimento da Medicina (SPDM) reforça que a inovação pode ser integrada ao cuidado desde que respeite os limites éticos e técnicos da prática em saúde mental. O tratamento, por sua natureza relacional e clínica, deve sempre ser conduzido por profissionais especializados.
Fontes Consultadas
- G1/Fantástico. IA na psicoterapia: riscos e alertas de psicólogos. Reportagem de Redação g1. DIsponível em https://g1.globo.com/fantastico/noticia/2025/09/15/nao-existem-evidencias-de-que-possa-haver-psicoterapia-realizada-por-ia-alerta-psicologa.ghtml
- Stanford University / Stanford HAI. Exploring the Dangers of AI in Mental Health Care. Disponível em https://hai.stanford.edu/news/exploring-the-dangers-of-ai-in-mental-health-care
- Thebmj. The risks and benefits of AI therapy tools. Disponível em: https://www.bmj.com/content/389/bmj.r821
- The Conversation. Por que uma Inteligência Artificial não pode ser seu psicanalista e, talvez, nem mesmo um bom ouvinte?. Disponível em: https://theconversation.com/por-que-uma-inteligencia-artificial-nao-pode-ser-seu-psicanalista-e-talvez-nem-mesmo-um-bom-ouvinte-264744