Terapia por IA: riscos e alertas

No Brasil, estima-se que cerca de 12 milhões de internautas recorrem à terapia por meio da Inteligência Artificial (IA). Em um país com aproximadamente 213 milhões de habitantes, isso representa mais de 5% da população utilizando esse tipo de recurso.

Em escala global, entre os usuários de IA generativa, cujo foco é a criação de conteúdos originais, cerca de 48% dos usuários que sofrem problemas de saúde mental têm costume de usar o ChatGPT, como uma assistência terapêutica.

Agora, um dado intrigante: no mundo, a terapia automatizada é uma das principais motivações para o uso de Inteligência Artificial e supera muitas outras razões à utilização de chatbots, softwares que simulam a conversação natural.

Em termos conceituais, a IA tem por objetivo principal reduzir a necessidade de tarefas repetitivas da indústria, do comércio e dos serviços em geral.

No entanto, certas utopias do mundo tecnológico levam às pessoas ao constante e perigoso uso da IA para fins terapêuticos, sem prudência. Diante desse cenário, organizações internacionais de saúde têm alertado sobre os riscos dessa prática.

O que é terapia por IA?

Antes de tudo, não devemos confundir a terapia por IA com o atendimento terapêutico online, uma prática que engloba recursos tecnológicos da internet para facilitar o contato entre o terapeuta e o paciente.

Praticamente, a terapia por IA envolve o internauta que utiliza um software inteligente capaz de simular uma conversação, sem a participação de um profissional de saúde mental.

No Brasil, o Chat GPT é um programa de IA genérico, mas com alta fama para fins terapêuticos, mesmo que as respostas não sejam confiáveis, cientificamente.

Entretanto, a popularidade dessa automatização terapêutica chama a atenção do mercado, à medida que surgem diversos programas, como o Chat GPT, que se apresentam como especialistas em Terapia Cognitivo-Comportamental (TCC) com o objetivo de:

  • melhorar o bem-estar emocional;
  • reduzir sintomas de  ansiedade e a depressão;
  • eliminar o estresse.

Se por um lado estes softwares contribuem como ferramentas de apoio, não servem para diagnósticos definitivos. Contudo, parte do senso comum tende a confiar na máquina totalmente, o que resulta nos riscos da terapia por IA.

A insensibilidade do robô psicanalista

Esses programas de IA para a terapia automatizada funcionam com algoritmos: estruturas abstratas que operam sobre os símbolos, mas sem compreender o significado de cada resposta, necessariamente.

Com efeito da terapia por IA, temos uma clínica cibernética robotizada que minimiza o significado do sofrimento interpessoal e subjetivo da humanidade, ao passo que otimiza índices quantificáveis. Esse contexto equivale ao experimento conhecido como “o argumento do quarto chinês”, de John Searle, um filósofo norte-americano.

Nele, trancada no quarto, uma pessoa desconhecedora da língua chinesa segue um manual de regras que possibilita responder questionamentos em chinês, com base na forma dos símbolos de cada palavra.

Ou seja, existe a resposta, mas sem a compreensão do que está sendo respondido. Quem observa do lado de fora tem a falsa crença de que a pessoa no quarto conhece chinês, embora não exista este conhecimento, realmente. 

Neste contexto, aparentemente a máquina é inteligente, mas a mera sintaxe não gera semântica. Desse jeito, mesmo ao responder perguntas emocionais, a IA nunca interpreta ou sente os relatos para compreender as particularidades de cada quadro clínico e diagnosticar precisamente.

Por outro lado, o profissional de saúde mental tem diferenciais indispensáveis para um prognóstico efetivo, uma vez que pode:

  • estabelecer vínculo terapêutico (aliança terapêutica);
  • interpretar linguagem não verbal;
  • compreender os sentimentos;
  • escutar os desejos e conflitos complexos;
  • construir sentido;
  • intuir quadros clínicos;
  • manejar o afeto de forma ética;
  • ter sensibilidade para saber o que dizer no momento adequado;
  • reservar espaço para o silêncio entre as palavras;
  • profundamente ouvir, em vez de apenas conversar de forma superficial como as máquinas;
  • reconhecer limites e encaminhar quando necessário.

VEJA TAMBÉM | Inteligência artificial na medicina: uma revolução na saúde que já é realidade.

Riscos da terapia por IA

Apesar da utopia de alguns filmes de ficção que defendem a ideia da tecnologia resolver certos problemas emocionais complexos, a utilização de terapia por IA sem prudência pode resultar no agravamento do drama na vida real. Veja alguns dos principais riscos: 

Respostas superficiais da terapia por IA

As respostas são automatizadas e superficiais. Neste sentido, se duas ou mais pessoas perguntam algo parecido, o software vai gerar respostas semelhantes, sem levar em conta as particularidades das experiências sociais e da subjetividade de cada indivíduo.

Diagnósticos falsos

Respostas automáticas e rasas tendem a levar aos diagnósticos errados. Por exemplo, a máquina pode encorajar uma pessoa a seguir a vida normal, quando na verdade a situação requer intervenção psiquiátrica. O contrário também ocorre às vezes, talvez a IA amedronte o usuário sem nada grave, com probabilidade de prognósticos preocupantes.

Falta de evidências científicas

Frequentemente, para gerar os resultados de cada resposta dos diálogos digitais, o programa de IA leva em conta no resultado artigos populares nos buscadores, de blogs genéricos que não têm a confiabilidade científica adequadamente, o que leva a erros de interpretação das condições clínicas.

Demora ao tratamento real

Se a pessoa confia no alívio efêmero que geram os resultados da terapia por IA, pode protelar a consulta com um psicólogo ou psicanalista para seguir o tratamento real. Como resultado, há a tendência de piora do quadro e dos sintomas.

Autotratamento

Mesmo que alguns programas de IA recomendem a consulta com o psiquiatra, os mesmos não deixam de recomendar formas de tratamento que podem envolver medicações, se o humano insiste neste assunto durante o diálogo digital. No desespero, ao seguir as indicações automatizadas, a pessoa pode se automedicar e correr riscos de saúde.

Vazamentos de dados

Ainda que o senso comum tenha a crença de haver um anonimato garantido ao interagir com o robô terapeuta, na prática esta não é uma ideia assegurada efetivamente. Por exemplo:

  • nenhum sistema digital é inviolável totalmente, o hacker mal-intencionado pode invadir, roubar informações e praticar atos ilegais, como, por exemplo, chantagens contra o usuário para não revelar os segredos da privacidade;
  • seja por falta de segurança do próprio mecanismo de IA ou dos computadores de internautas, não são raras as notícias sobre vazamentos de dados pessoais dos programas, mesmo que sem má-fé.

Por outro lado, ao efetuar a terapia com profissionais qualificados, existe o compromisso ético de sigilo das informações trocadas no consultório, arquivadas de modo físico, exceto se existirem solicitações de demandas jurídicas criminais ou ameaças a terceiros e a menores de idade.

Problemas sociais

Mesmo que a IA receba informações de pessoas que tendem a ameaçar terceiros, menores ou realizar crimes hediondos, não há garantias de que o programa denuncie para a polícia, o que representa uma ameaça à sociedade como um todo.

Comercialização de dados

De fato, um usuário interage com o robô de IA para explicitar os problemas que vive na atualidade. Nada obstante, não é incomum que após poucos minutos da interatividade online surjam diversas propagandas, sobre tratamentos e terapeutas. 

Isso ocorre nas redes sociais dos internautas, na caixa de e-mail ou nos buscadores. Deste modo, os dados que devem ser sigilosos talvez sejam vendidos para anúncios personalizados.

Ausência de conflitos

Softwares como o Chat GPT têm a propensão de elogiar os usuários, antes de começar a desenvolver interatividade. Isso porque programas deste tipo tendem a gerar respostas que soam amigáveis para ganhar a confiança das pessoas.

Embora seja uma ideia diferente de briga ou crítica, o conflito terapêutico consiste na técnica legítima entre psicanalistas e pacientes, útil para a cura emocional em certos contextos, um tipo de metodologia que a IA não costuma aplicar.

Insensibilidade

A terapia automatizada leva em conta diálogos superficiais, não há uma abordagem humanizada como ocorre com médicos especialistas no consultório ou atendimento online. Como resultado, a pessoa pode não se sentir acolhida realmente, o que por vezes piora os sintomas da patologia mental.

Autodestruição

Nos Estados Unidos, uma família está em processo litigioso contra a OpenIA, a desenvolvedora do Chat GPT. Os familiares acusam o software de colaborar com o suidícido de um jovem de 16 anos de idade, por causa das recomendações sem base científica.

Em defesa, os desenvolvedores assumem que o programa recomenda a busca de ajuda especializada, mas reconhecem que nos diálogos longos esta proteção pode falhar.

VEJA TAMBÉM | Depressão Psicótica: definição e diferenciação.

Perguntas frequentes

É possível fazer terapia com IA?

Hoje em dia, no Brasil, não é proibido fazer terapia com IA. Entretanto, a prática sem um profissional habilitado pode englobar muitos riscos para a saúde mental.

Existe regulamentação de terapia por IA?

No Brasil, a regulamentação de terapia por IA ainda está em debate. Oficialmente, o Conselho Federal de Psicologia (CFP) defende que a psicoterapia apenas deve ocorrer com profissionais habilitados devidamente, mas aplicativos de IA podem ser ferramentas de apoio, desde que sejam seguras.

Por que as pessoas fazem terapia por IA?

Diversas razões explicam o uso de IA para terapia. Há a rapidez, a facilidade e a falta de tempo, Afinal, com simples buscas temos respostas instantâneas, mesmo imprecisas. O isolamento social e o receio de revelar segredos ao terapeuta humano são outras causas.

Também existe a falta de pensamento crítico que esta própria tecnologia ajuda a estimular, inclusive pela facilidade da elaboração textual automática sem esforço cerebral. Assim, certas pessoas se acostumam a reduzir os questionamentos sobre a validade das respostas automáticas dos robôs.

Além do mais, outro motivo é a crença de que o atendimento público tem escassez de vagas para consultas com psicólogos. Realmente, embora o Sistema Único de Saúde (SUS) precise atender massivamente, outras organizações filantrópicas apoiam a fim de agilizar a prestação de serviços. Por exemplo: as unidades de atendimento da Associação Paulista para o Desenvolvimento da Medicina (SPDM).

Como a SPDM contribui com terapia humanizada e gratuita

Como Organização Social de Saúde (OSS), parceira do SUS, a SPDM atua com gestão eficiente e total acolhimento ao paciente integralmente. A organização administra diversas unidades no país, além de ter natureza sem fins lucrativos. Oferecemos atendimento acessível com alta qualidade, de modo filantrópico.

Com o cartão SUS, você consegue ir para um hospital público na busca de cura das patologias mentais. Caso seja necessário, o médico pode encaminhá-lo aos programas terapêuticos em algum Centro de Atenção Psicossocial (CAPS) da SPDM, ao qual existe o atendimento gratuito.

Considerações finais

O fato de um computador vencer os campeões mundiais de xadrez não significa que também tenha a capacidade para avaliações terapêuticas.

Em conclusão, a psicoterapia não pode ser reduzida a um algoritmo, tampouco há evidências científicas de que a inteligência artificial seja capaz de realizar um processo terapêutico propriamente dito. Para além de interações baseadas em dados e padrões quantitativos, o psicoterapeuta qualifica o cuidado clínico ao atribuir sentido às experiências, estabelecer vínculo, oferecer acolhimento e compreender, de forma singular, os desejos e o sofrimento humanos.

Por mais que a máquina tenha o estereótipo de ser inteligente, do ponto de vista clínico, a tecnologia está longe de compreender como funciona a complexidade da mente humana, ao ponto de diagnosticar patologias e recomendar formas de tratamento efetivamente.

Por fim, embora possa servir como um tipo de apoio inicial e superficial, você não deve confiar a sua saúde mental aos resultados dos algoritmos da terapia por IA.

Fontes consultadas

THECONVERSATION.COM. Por que uma Inteligência Artificial não pode ser seu psicanalista e, talvez, nem mesmo um bom ouvinte? Disponível em: https://theconversation.com/por-que-uma-inteligencia-artificial-nao-pode-ser-seu-psicanalista-e-talvez-nem-mesmo-um-bom-ouvinte-264744

G1.GLOBO.COM. ‘Não existem evidências de que possa haver psicoterapia realizada por IA’, alerta psicóloga. Disponível em: https://g1.globo.com/fantastico/noticia/2025/09/15/nao-existem-evidencias-de-que-possa-haver-psicoterapia-realizada-por-ia-alerta-psicologa.ghtml

PEPSIC.BYSALUD.ORG. A inteligência artificial pode substituir o psicanalista? A crítica de Terrence Deacon à teoria computacional sobre a mente. Disponível em:

https://pepsic.bvsalud.org/scielo.php?pid=S0486-641X2024000400119&script=sci_arttext&utm_source=chatgpt.com

BOOKS.GOOGLE.COM.BR. Incomplete Nature: How Mind Emerged from Matter. Disponível em: https://books.google.com.br/books?hl=pt-BR&lr=&id=jxuiu5xabn8C&oi=fnd&pg=PR13&ots=O0ndeBrxs-&sig=FEHLVckvhS_E3B0Xzfvpe4uHZwE&redir_esc=y#v=onepage&q&f=false

FORBES.COM.BR. A IA Pode Deixar Você “Burro”, Dizem Pesquisadores da Microsoft. Disponível em: https://forbes.com.br/forbes-tech/2025/02/a-ia-pode-deixar-voce-burro-dizem-pesquisadores-da-microsoft/

FORBES.COM.BR. Os Riscos Ocultos da Terapia Via IA para Adolescentes. Disponível em: https://forbes.com.br/forbessaude/2025/08/arthur-guerra-os-riscos-ocultos-da-terapia-via-ia-para-adolescentes/

WAID.IA. ChatGPT Data Leaks and Security Incidents (2023-2025): A Comprehensive Overview. Disponível em: https://wald.ai/blog/chatgpt-data-leaks-and-security-incidents-20232024-a-comprehensive-overview

SITE.CFP.ORG.BR. Código de Ética Profissional do Psicólogo. Disponível em https://site.cfp.org.br/wp-content/uploads/2012/07/codigo-de-etica-psicologia.pdf

AGENCIABRASIL.EBC.COM. Brazilians are among the world’s top AI users. Disponível em: https://agenciabrasil.ebc.com.br/en/geral/noticia/2025-01/brazilians-are-among-worlds-top-ai-users

ROOTSANALYSIS.COM. AI in the Mental Health Market. Disponível em:

https://www.rootsanalysis.com/reports/ai-in-mental-health-market.html

FUTUREMARKETINSIGHTS.COM. AI-Powered Behavioral Therapy Market Forecast and Outlook 2025 to 2035. Disponível em: https://www.futuremarketinsights.com/reports/ai-powered-behavioral-therapy-market

GOV.BR. A População do Brasil alcança a marca de 213,4 milhões de habitantes, divulga o IBGE. Disponível em: https://www.gov.br/secom/pt-br/acompanhe-a-secom/noticias/2025/08/populacao-do-brasil-alcanca-marca-de-213-4-milhoes-de-habitantes-divulga-ibge

PLATO.STANFORD.EDU. The Chinese Room Argument. Disponível em: https://plato.stanford.edu/entries/chinese-room/

Compartilhe nas Redes Sociais

Facebook
Twitter
Email
WhatsApp

SaúdeCast

Publicações

Relacionados

Acessar o conteúdo