"IA na Saúde Mental: Terapia Digital, Chatbots Emocionais e Desafios Éticos"

Era uma rara tarde de chuva aqui em Recife- Pernambuco, quando Clara, uma jovem de 28 anos com histórico de ansiedade generalizada, me entregou seu celular com as mãos tremendo. Na tela, aparecia um chatbot de saúde mental que exibia a seguinte mensagem: "Entendo que você se sinta perdida e desolada. Que tal praticarmos uma respiração guiada?". Ela olhou para mim, com os olhos lacrimejando: "Dan, eu falo com esse algoritmo há três meses... mas hoje precisei de alguém que realmente possa sentir minha angústia, não apenas processe meus sintomas ou me dê respostas frias e prontas". Naquele momento, eu compreendi muito quanto a esse assunto, algo que recorrentemente tinha chegado até mim de diversas maneiras. Eis o paradoxo que surge da inteligência artificial na era digital, tecnologias prometendo revolucionar o acesso à saúde mental, mas incapazes de substituir a singularidade, o hermetismo e a diversidade que envolve a troca da conexão real. Um dilema, que hoje define, não apenas minha clínica, mas o futuro da psicanálise e a psicoterapia global. “A alma não pode ser traduzida em código binário sem que algo essencial se perca no caminho, esse insondável silêncio entre palavras, onde mora o verdadeiro cuidado.” - Dan Mena. É precisamente nessa óbvia oposição que a psicanálise revela sua tipicidade insubstituível, enquanto algoritmos mapeiam sintomas como dados estanques, trabalhamos com aquilo não codificável da subjetividade, onde um silêncio carregado de trauma, um lapso na fala ou a repetição inconsciente de relações tóxicas narram o que nenhuma máquina pensante ou falante pode, nem poderá decifrar, nunca. Dias depois daquele encontro com Clara, que expôs o chatbot para mim, foi que tive a certeza quanto a ele não ser capaz de perceber o pânico que ela sofre às sextas-feiras às 16h, horário em que seu pai deixou sua mãe e também a abandonou.

27/07/2025 13:23
198 min.
33

"IA na Saúde Mental: Terapia Digital, Chatbots Emocionais e Desafios Éticos"


Inteligência Artificial na Saúde Mental
Inteligência Artificial na Saúde Mental

Era uma rara tarde de chuva aqui em Recife- Pernambuco, quando Clara, uma jovem de 28 anos com histórico de ansiedade generalizada, me entregou seu celular com as mãos tremendo. Na tela, aparecia um chatbot de saúde mental que exibia a seguinte mensagem: "Entendo que você se sinta perdida e desolada. Que tal praticarmos uma respiração guiada?". Ela olhou para mim, com os olhos lacrimejando: "Dan, eu falo com esse algoritmo há três meses... mas hoje precisei de alguém que realmente possa sentir minha angústia, não apenas processe meus sintomas ou me dê respostas frias e prontas". Naquele momento, eu compreendi muito quanto a esse assunto, algo que recorrentemente tinha chegado até mim de diversas maneiras.   Eis o paradoxo que surge da inteligência artificial na era digital, tecnologias prometendo revolucionar o acesso à saúde mental, mas incapazes de substituir a singularidade, o hermetismo e a diversidade que envolve a troca da conexão real. Um dilema, que hoje define, não apenas minha clínica, mas o futuro da psicanálise e a psicoterapia global.


“A alma não pode ser traduzida em código binário sem que algo essencial se perca no caminho, esse insondável silêncio entre palavras, onde mora o verdadeiro cuidado.” Dan Mena.


É precisamente nessa óbvia oposição que a psicanálise revela sua tipicidade insubstituível, enquanto algoritmos mapeiam sintomas como dados estanques, trabalhamos com aquilo não codificável da subjetividade, onde um silêncio carregado de trauma, um lapso na fala ou a repetição inconsciente de relações tóxicas narram o que nenhuma máquina pensante ou falante pode, nem poderá decifrar, nunca. Dias depois daquele encontro com Clara, que expôs o chatbot para mim, foi que tive a certeza quanto a ele não ser capaz de perceber o pânico que ela sofre às sextas-feiras às 16h, horário em que seu pai deixou sua mãe e também a abandonou.   Enquanto a IA lhe oferecia respirações guiadas, ela precisava de alguém que escutasse o vazio simbólico por trás do desabitado físico, algo só possível na relação analítica, onde o analista não "resolve", mas assiste conjuntamente a esse habitat da ambiguidade com o paciente.


Aqui reside o núcleo básico da psicanálise, não lidamos com problemas, mas com enigmas. Enquanto a nova terapia digital busca normalizar, equalizar as emoções via protocolos, na clínica analítica celebramos com fogos de artifício a não-resolução como caminho para a verdade. Importante neste ponto lembrar Lacan, ao afirmar que "o desejo do analista é o desejo de não ceder em seu desejo". Falando neurocientificamente, isso pode ser traduzido em sincronia neurobiológica, onde estudos mostram que a cura emocional depende de sinalizações micro, não verbais, uma boca troncha, um nariz empinado, um movimento de sobrancelha, um ajuste na postura, posição das mãos, a sudorese, “etc”, que ativam redes neurais de segurança no cliente.   Como isso pode ser percebido ou lido no instante exato por interfaces artificiais?. Logo vão dizer… vamos conectar o paciente a uma máquina para fazer essas leituras, e por aí vai, será um ajuste infinito de configurações tecnológicas que sempre vão escapar ao humano. 


“A escuta terapêutica não é um algoritmo que responde, é um abdômen simbólico que acolhe o indizível sem pressa nem precisão.” - Dan Mena.


psicoterapia-online-com-chatbot-emocional-e-inteligencia-artificial.jpg
psicoterapia-online-com-chatbot-emocional-e-inteligencia-artificial.jpg

Na análise, o tempo não é cronológico, senão psíquico, um minuto de fala ou silêncio pode contar décadas de história não elaborada, e é nesse espaço sacro que a transferência acontece. Neste alvorecer, o paciente projeta no analista figuras do passado, permitindo reescrever suas narrativas internalizadas e recalcadas. Nenhum chatbot pode sentir o peso de um luto não dito ou reconhecer que a verdadeira análise começa quando as palavras fracassam, falham e naufragam É essa ancoragem de habitar o desconhecido, de transformar o não-dito em catalisador de mudanças. Isso faz da psicanálise não um método, mas um ato de resistência ética em tempos de banalização e simplificação radical. 


Vivemos um momento insigne e notável, estamos iniciando fatalmente uma batalha contra as máquinas, em que a inteligência artificial, inclusive na saúde mental deixou de ser ficção científica para se tornar realidade cotidiana, com intervenções personalizadas e clínicos virtuais inexistentes que não possuem nenhum traquejo real com nossa humanidade. Pretendem implementar e integrar rotinas clínicas em pacientes que nunca viram, tocaram ou alcançaram minimamente. 


Se multiplicam fecundamente as plataformas de terapia digital e chatbots emocionais, tais emergem, e não podemos negar que podem sim serem aliados poderosos em um cenário de demanda reprimida, estudos indicam que essas ferramentas aumentam a adesão ao tratamento em casos de depressão e ansiedade, especialmente para quem enfrenta barreiras geográficas ou econômicas. 


“Entre a lógica da máquina e a angústia do sujeito, nos resta a ética de não reduzir o sofrimento a uma sequência de instruções digitais.” - Dan Mena. 


No entanto, essa suposta eficiência técnica mascara um problema ético que precisamos confrontar com urgência. Como psicanalista, com suficiente prática clínica, observo com grande fascínio e, ao mesmo tempo preocupação como a promessa falsa da "democratização do cuidado", essa, que esconde riscos silenciosos, desde a mediocrização do sofrimento psíquico até a mercantilização da vulnerabilidade dos pacientes. Não são poucos os profissionais da minha área que nem sei se podem ser mencionados como psicanalistas, que já se dobram ao mercantilismo.   De forma alguma busco demonizar a inovação, eu me sirvo dela também, mas, devemos propor um diálogo crítico sobre como equilibrar a revolução tecnológica com a essência da hermenêutica e a relação intersubjetiva, onde clínica, método, corpo, mente e emoção devem inequivocamente se entrelaçar para entregar o que é preciso. 


É fato que a ascensão da terapia digital não surgiu por acaso, nestas últimas duas décadas, a convergência de três fatores criaram o cenário ideal para sua expansão, a pandemia, que expôs a vulnerabilidade dos sistemas de saúde mental, a geração digital, que normalizou a interação com interfaces artificiais, e a indústria da tecnologia que viu no sofrimento um mercado bilionário a ser explorado. Hoje, tem mais de 200 aplicativos disponíveis globalmente, prometendo virtualizar atendimento "com apoio 24/7" a custos acessíveis. Vejo aqui o primeiro grande equívoco, reduzir a complexidade da psique a algoritmos de processamento de linguagem natural.   Eu tenho um colega neurocientista renomado, ele me alertou durante um congresso em 2021: ele disse, "Você pode programar um bot para identificar palavras-chave de depressão, mas nunca poderá reconhecer o peso de um silêncio carregado de trauma". Seria certamente uma limitação técnica conceitual quanto a ilusão da subjetividade que me referi no início, uma impossível tradução de dados quantificáveis sem haver a perda óbvia de significado.


“Na promessa da IA, de uma escuta infalível, esquecemos que a verdadeira escuta se faz vulnerável, imperfeita e absolutamente humana. Como tudo aquilo que verdadeiramente nos transforma.” - Dan Mena. 


Quando Freud, há mais de um século descreveu os sonhos como "estradas reais para o inconsciente", estava profetizando quanto aos algoritmos, eles não podem mapear a dimensão simbólica e icônica do sofrimento. Clara, minha paciente do início desta introdução, não buscava apenas técnicas de respiração para o seu momento, ela precisava que alguém decifrasse porque aquele vazio surgia toda sexta-feira às 16h. Para não ser tachado de conservador, vou atacar com a própria modernidade. 


como-a-ia-ajuda-no-tratamento-da-ansiedade-e-depressao.jpg
como-a-ia-ajuda-no-tratamento-da-ansiedade-e-depressao.jpg

A neurociência contemporânea confirma isso, pesquisas recentes sobre regulação afetiva demonstram que o tratamento emocional depende de sincronia neurobiológica entre terapeuta e paciente, um processo que envolve espelhamento de ritmos cardíacos, liberação de ocitocina, “etc”, não precisa dizer mais nada, um chatbot não pode replicar isso.


Aqui podemos verificar a enorme contradição da "terapia digital", que enquanto promete acessibilidade, oferece uma versão light da cura, desprovida de aprofundamento clínico necessário para transformar padrões inconscientes.   Os desafios éticos se multiplicam como fractais. Em um projeto-piloto que participo em pesquisa, sendo realizado com adolescentes, observamos como um chatbot classificou como "baixo risco" a mensagem "não quero mais acordar", por não conter palavras-chave explícitas de suicídio. Isso ilustra claramente o perigo da lógica binária aplicada a realidades ambíguas, justamente onde a clínica psicanalítica se ilumina ao trabalhar com contradições. Serve como alerta sobre a ética na implementação desses chats, essas ferramentas operam em um vácuo regulatório, coletando dados sensíveis sem consentimento, utilizando informações sensíveis sem adequação comprovada.


"A tecnologia pode simular empatia, mas não respira junto, não treme nem hesita diante do choro, são coisas que só a alma de um analista pode fazer." - Dan Mena. 


Achou pouco, isso pode ficar pior, ao padronizarem respostas insensíveis que reforçam vieses culturais inconscientes. Pedro Luiz, um paciente afrodescendente, me relatou que um bot insistia em associar sua tristeza à "falta de atividade física", ignorando o peso do racismo institucional em seu sofrimento. Nessa perspectiva, questiono quem programa e alimenta os algoritmos: quem define o que é "normal" emocionalmente? Me poupe, isso é uma utopia. 


Bom, quero repetir que não estou aqui para romantizar o passado nem demonizar a tecnologia. Reconheço que, para muitos, um ''chatbot'' pode ser a única porta de entrada para o cuidado emocional, especialmente em regiões onde faltam profissionais ou recursos. Seria então, melhor do que nada? O problema é que o melhor nesse cenário pode ser algo muito contramão do indicado.


etica-e-privacidade-na-saude-mental-com-tecnologia.jpg
etica-e-privacidade-na-saude-mental-com-tecnologia.jpg

"Se Freud via os sonhos como a estrada para o inconsciente, então os algoritmos de hoje são fotos em preto e branco que só se revelam em cores na presença viva de um outro." - Dan Mena.


Aqui reside minha proposta, em vez de competir com máquinas, talvez devemos redefinir nossa essência profissional. Enquanto esses bots podem dominar a gestão de sintomas, os analistas adentramos cavadamente naquilo que só humanos podemos fazer. Essa é a fronteira da próxima década, não se a IA deve existir como ferramenta acessória na saúde mental, mas sim, como preservar o núcleo terapêutico em um mundo de soluções rápidas.


Para isso, precisamos criar diretrizes éticas robustas. Para qual sugiro três pilares:


1) Regulação rigorosa de coleta de dados, com transparência sobre como as informações são usadas e arquivadas; 


2) Formação de profissionais em "literacia digital clínica", para integrar tecnologias sem perder a base terapêutica; 


3) Pesquisa contínua sobre os efeitos a longo prazo dessas ferramentas, algo ainda escasso na literatura atual. 


Como sociedade, devemos imediatamente rejeitar a falsa dicotomia entre "tradição vs. inovação", sempre uma polarização forçada que fragiliza o diálogo entre correntes opostas. A verdadeira revolução não está em quantos usuários um chatbot alcança, mas em quantas almas ele ajuda verdadeiramente a se reconectar com suas incertezas. 


Me faço uma pergunta que trago desde minha formação: se Freud tivesse acesso a essas tecnologias, ele as usaria para automatizar interpretações ou para estudar o mistério da mente? Minha aposta é que não. Acredito que Clara, agora, não mais vai entregar seu celular com desespero, mas o vai usar como alavanca e ponte para narrativas mais interessantes na sua análise. Esse é o futuro que merecemos, uma clínica onde a inteligência artificial não pretenda substituir a capacidade nativa e irreplicável do ser. No fim das contas, acolher nunca foi sobre resolver problemas de ninguém, é sobre aprender a agregar perguntas com mais coragem. E essa jornada, felizmente, vai permanecer exclusiva e merecidamente nossa.


"O que me preocupa realmente não é que a IA fale com pacientes, mas que ela silencie as perguntas que os fariam finalmente se escutar." - Dan Mena. 


O Avanço da Terapia Digital, de Aplicativos a Intervenções Baseadas em IA 


Há dez anos, a ideia de um "terapeuta de bolso" seria risível. O caminho começou com videoconferências básicas, evoluindo para plataformas como Wysa, Woebot e Replika,  aplicativos que prometem ser aliados 24/7 na gestão da ansiedade, depressão e diversas crises. Ditas plataformas que operam com uma lógica aparentemente infalível, oferecem terapia cognitivo-comportamental conversacional, psico educação algorítmica sem mediação de profissionais.  


Milhões de usuários, especialmente em regiões sem acesso à saúde psíquica, são verdadeiras lifelines,( lifelines são programas de imersão sensorial com incentivos governamentais em alguns países). Um jovem, do interior do Nordeste, que usa o Wysa para controlar ataques de pânico, me relatou: "Pela primeira vez, eu senti que alguém entendia meu problema, mesmo que eu sei que há uma máquina por trás das respostas". Sua gratidão é muito compreensível, estudos confirmam que o Woebot demonstra eficácia consistente na redução de sintomas depressivos, enquanto o Replika se mostra mais eficiente em aliviar a ansiedade 


"Um aplicativo de IA pode nomear emoções, mas não segura a mão simbólica que sustenta um sujeito à beira do colapso emocional." - Dan Mena. 


No entanto, essa revolução tem seu lado sombrio que não podemos ignorar. Estes apps mascaram sua natureza limitada com linguagem acolhedora. O Wysa, por exemplo, se define como um "agente de conversação de inteligência artificial destinado a auxiliar pessoas com sintomas clínicos de ansiedade", Destarte, omite que sua eficácia se restringe a casos leves. Eu já conversei com Ronaldo, um adolescente cujo uso prolongado do Replika, que já foi elogiado por seus recursos de "acompanhamento emocional", ele me relatou que agravou sua dependência de validação externa. 


impacto-da-inteligencia-artificial-no-cuidado-emocional.jpg
impacto-da-inteligencia-artificial-no-cuidado-emocional.jpg

A psico educação algorítmica é outro campo bastante paradoxal, enquanto ensina conceitos úteis, como identificar vieses cognitivos, eles reduzem a complexidade da mente a fluxogramas simplistas. Em minha prática, uso apps como complemento para registrar padrões entre sessões, mas sempre deixo um aviso claro: "Isso é um diário, não sou eu"


A lição é transparente, a terapia digital com IA vai bem enquanto reconhece seus limites. Ela não deve, nem pode competir com a psicanálise, psicologia ou outras abordagens. Enquanto os apps gerenciam sintomas superficiais, cabe a nós, analistas, psicólogos, terapeutas, verificar o desejo não confessado, o trauma enterrado, a história que se repete ciclicamente fora da consciência. 


"A promessa do cuidado 24/7 esconde uma verdade um tanto incômoda, não há algoritmo capaz de escutar o inconsciente nem de interpretar um silêncio carregado de história." - Dan Mena.


A IA pode mapear a floresta, mas apenas o analista é capaz de caminhar e guiar o paciente pelas sombras de suas árvores. Esse equilíbrio frágil, entre a eficiência da tecnologia e a escuta flutuante, será onde residirá o futuro dessa controvérsia. Não como substituição, mas como diálogo, entre máquinas que amplificam nossa capacidade de chegar a mais pessoas, enquanto preservamos o núcleo elementar da clínica, que sinaliza aquele momento em que duas subjetividades se encontram. 


Chatbots Emocionais. Como os Códigos Tentam Compreender o Inconsciente? 


Há um momento único em toda análise em que o paciente, ao relatar um sonho, percebe que suas próprias palavras carregam um simbolismo e peso que ele(a) mesmo não domina. Foi isso que aconteceu com Rafael, um engenheiro de 35 anos que, após meses de uso do Replika, trouxe à sua sessão um diálogo onde o chatbot respondia a seu relato sobre "sonhar com um elevador quebrado""Talvez você precise de mais controle em sua vida." "Que tal listar metas diárias?". Rafael riu, amargo né: "Ele reduziu minha angústia a um checklist Dan", tem que rir. Esse episódio sintetiza magistralmente o desafio central dos apps terapêuticos, enquanto a psicanálise entra no inconsciente como linguagem, os algoritmos tratam a fala como um dado a ser categorizado e listado. 


Os robôs de apoio psicológico operam com sofisticados sistemas de processamento de linguagem natural - (PLN), treinados em milhares de transcrições de terapias comportamentais. Quando detectam padrões associados à baixa atividade dopaminérgica, eles sugerem exercícios de comportamento ativo. Tecnicamente impressionante, mas clinicamente altamente nulo e superficial. Esses sistemas mapeiam a superfície emocional do sujeito, palavras ‘’X’’, tom de voz, ritmo da digitação, destarte falham na dimensão simbólica. Não percebem que, para o paciente, o elevador quebrado pode ser uma metáfora do trauma de ficar preso no elevador do prédio onde seu irmão faleceu mediante o suicídio.


"O inconsciente não responde a comandos, ele se insinua, e é nesse sussurro que o algoritmo falha, porque o que mais importa na alma nunca é explícito." - Dan Mena. 


A escuta digital a meu ver, tem seus limites bem definidos, eles se tornam críticos em momentos de ruptura. Sistemas reforçam vieses inconscientes, chatbots tendem a associar relatos de mulheres com "problemas relacionais" e de homens com "estresse profissional", ignorando contextos culturais, sexuais, sociais e as histórias individuais. A ironia é cruel, máquinas que prometem neutralidade reproduzem, sem nenhum questionamento, as hierarquias sociais que programaram em seus metadados. 


Recentemente, um jovem descobriu que seus ataques de pânico coincidiam com mensagens não respondidas da ex, uma conexão que o algoritmo identificou, mas só a análise interpretou: "Você não teme a solidão, mas sim o fantasma da rejeição que sua mãe deixou para você". É nesse ponto que a psicanálise resgata seu valor centenário  e revolucionário, enquanto a IA busca solucionar, nós ensinamos a habitar a pergunta. A lição é essa, os robôs de apoio psicológico podem mapear sintomas, embora, não alcançam ou tocam o silêncio do núcleo traumático, esse espaço não pode ser preenchido pelo algoritmo. Lacan disse: "O inconsciente é a história do que calamos"  E nessa narrativa, nenhum código pode substituir a coragem de um olhar, que, ao reconhecer o não-dito, abre caminho para a transmutação. Tratar um paciente não é ajustar um ‘’output’’, mas redescobrir que, mesmo na era dos algoritmos a alma permanece um território selvagem, e é, justamente ali, que reside sua insondável beleza.


"Enquanto o algoritmo cataloga os sintomas, o analista escuta o reflexo de um passado que insiste em retornar disfarçado, é aí que começa o verdadeiro cuidado." - Dan Mena. 

Privacidade Emocional e Ética Algorítmica e a Fragilidade do Paciente Digital


futuro-da-terapia-com-inteligencia-artificial-e-humana.jpg
futuro-da-terapia-com-inteligencia-artificial-e-humana.jpg

Neste contexto, surge também uma nova e delicada questão. Quem detém a propriedade dos dados emocionais que os pacientes compartilham em ambientes terapêuticos mediados por algoritmos? Ao contrário das anotações manuscritas tradicionais, principalmente usadas por psicólogos, quando feitas, já que psicanalistas raramente escrevem literalmente registros. Falas e estruturas emocionais transcritas em plataformas digitais, desde respostas até históricos de voz em apps terapêuticos passam a existir em servidores e bancos de dados na nuvem que pertencem a empresas de tecnologia.   O que era antes a promessa do rigor confidencial entre paciente e terapeuta, agora se tornou vulnerável ao rastreio, gravação, monetização, análise preditiva, e, em alguns casos, à venda de informações que deveriam ser sigilosas. Então agora todo esse rigor foi suprimido? Que interessante? Fico imaginando se um paciente descobrisse que seu analista o está gravando.
"Quando o sofrimento é transformado em dados, o inconsciente vira mercadoria e a escuta se torna uma fraude que finge acolher para extrair." - Dan Mena. 


Essa nova configuração sem controles éticos, desafia não apenas os princípios da psicoterapia, mas também questiona o próprio sujeito, onde seu sofrimento ainda lhe pertence, destarte, está sendo traduzido, repassado, usado e processado por chaves que o interpretam e utilizam para obter benefícios de todo tipo, sem antes mesmo que ele(a) mesmo(a) o compreenda. 

O sigilo profissional sempre foi um pilar fundamental da prática clínica. Contudo, a ascensão das plataformas digitais na oferta de serviços dessa natureza me obrigam a perguntar. O que acontece com a reserva descritiva do paciente quando os dados são armazenados em nuvens e passam por servidores de empresas terceirizadas? A promessa da segurança creio que entra em choque com vazamentos, uso indevido e manipulação de dados, colocando em xeque o pacto simbólico que deve obrigatoriamente existir entre analista e analisando. 


Além disso, verifiquemos detenidamente a burocratização do consentimento por meio de termos de uso absurdos, longos e técnicos, que ninguém quer ler. Isso dilui e pulveriza a consciência do paciente sobre onde suas informações realmente estão indo e são armazenadas. A experiência íntima da escuta, agora mediada por plataformas, sofre o risco de se tornar uma experiência de coleta de dados, hábitos, costumes e outros, disfarçados de acolhimento.


"Se o sigilo é agora substituído por longos termos de uso, então já não é mais escuta, é mineração emocional disfarçada de empatia e acolhimento." - Dan Mena. 


‘’setting psicanalítico’’ é mais do que um espaço, é o lugar da moldura simbólica que sustenta o processo analítico em si. Quando um paciente fala, ele(a) não narra apenas com palavras, utiliza silêncios, pausas, olhares e memórias. A inteligência artificial, ao se tornar mediadora desse processo, automatiza a escuta, substituindo a presença viva por um simulacro. Ao responder com base em padrões e estatísticas, o algoritmo pode invadir o inconsciente do paciente com respostas que pertencem a uma lógica exterior à sua subjetividade e particularidade. Isso pode certamente alterar o percurso natural da transferência, antecipando interpretações ou moldando inconscientemente os afetos do analisando. 


O avanço da IA terapêutica exige uma reinvenção ética, acredito que não basta apenas proteger os dados, é necessário manter o sentido, a singularidade e o espaço merecido da queixa. Essa clínica do futuro não pode abdicar do cuidado com o invisível, algo que pode estar entre uma pergunta e um suspiro.


"Proteger o dado não é suficiente; é preciso proteger o silêncio entre uma palavra e outra, onde mora o verdadeiro pacto clínico." - Dan Mena.
plataformas-digitais-de-terapia-e-desafios-psicologicos.jpg
plataformas-digitais-de-terapia-e-desafios-psicologicos.jpg

IA como Suporte ou Substituto? O Futuro do Laço Terapêutico 


Tudo isso parece bastante funcional à lógica contemporânea, rápida, instantânea e disponível 24 horas e sem o incômodo da alteridade. Porém, aquilo apresentado como comodidade e conforto pode ocultar o risco de uma solidão ainda mais sofisticada e cruel, onde o sujeito, em busca de ajuda, se refugia no espelho digital que apenas confirma suas crenças, medos e padrões emocionais desenvolvidos. 


Observemos que a tecnologia oferece o cuidado, mas sem corpo, sem cheiro, sem respiração nem emoção. É o paradoxo da atenção sem presença, onde o sujeito fala, desabafa, chora e pode até gritar metaforicamente, mas do outro lado há um roteiro, um código, uma falsa empatia. Ainda que a IA consiga reconhecer padrões de linguagem emocional e devolver respostas aparentemente sensíveis, ela não sofre, não se afeta, não infringe o suposto saber, nem sonha com o paciente.


"Quando a escuta vira algoritmo, o sofrimento deixa de ser enigma e se torna função, então se perde a dor, por consequência, o sujeito." - Dan Mena. 


Na psicanálise, o afeto compartilhado é parte essencial do processo. O vínculo humano x máquina, embora funcional, carece do elemento transformador do encontro, onde o outro como enigma não existe. Nesse sentido, a máquina poderá escutar, mas dificilmente acolher verdadeiramente. 


Essa pós-modernidade enaltece o sujeito autônomo, autossuficiente, autodidata, autoanalisáveis, todos acham isso lindo, outra armadilha. Mas, lembremos que o excesso de autonomia se torna uma prisão narcisista, onde o sujeito já não precisa mais do outro para pensar, refletir, dividir ou se transformar. Ele se retroalimenta de cálculos que antecipam suas emoções e oferecem respostas baseadas em probabilidades matemáticas, não em escuta genuína. Ao optar por interações com sistemas preditivos, o sujeito pode entrar em um circuito fechado de confirmação, onde não há conflito, não há frustração, logo, cadê a alteridade? Seria apenas a repetição do mesmo, é o isolamento emocional mascarado de independência emocional. Aplausos, não é isso que desejamos? 


Humanização da Tecnologia ou a Tecnologização da Alma?


Entre Prometeu e Narciso, uma síntese, filosófica e psicanalítica. 


Vivemos a incoerência de uma época que humaniza suas máquinas ao mesmo tempo que automatiza suas emoções. Tal avanço da IA no campo da escuta psíquica, se isso pode ser dito desta forma, levanta uma inquietação. Estamos moldando a tecnologia à nossa imagem ou estamos moldando o humano à imagem da tecnologia? Realmente paradoxal.


Como sempre, quando fico com muitas dúvidas recorro a velha filosofia. Desde os gregos, fomos alertados sobre os limites do HYBRIS. O hybris, na tradição grega, representa a desmedida, a arrogância do ser diante dos deuses da época e da ordem natural das coisas.   É o impulso que nos habita de ultrapassar os próprios limites, desafiando a finitude que constitui a nossa condição. Atualmente, vejo esse conceito ressurgir via as ambições tecnológicas de controlar o inconsciente, prever emoções e substituir relações interpessoais por algoritmos. Ao buscar dominar tudo, inclusive o que evapora, arriscamos perder o sentido de humanidade. A psicanálise nos lembra que é no limite, na falta, no que não se sabe, que reside a subjetividade. O hybris tecnológico ameaça justamente esse espaço do mistério existencial.


chatbots-de-saude-mental-seguro-ou-arriscado.jpg
chatbots-de-saude-mental-seguro-ou-arriscado.jpg

"O problema não é o conforto que o digital oferece, é quando ele substitui o desconforto necessário de ser tocado pelo outro." - Dan Mena.


Essa pretensa altivez de querermos ultrapassar a nossa própria condição, elimina em grande escala a lição de que como sujeitos nos formamos na tensão com o outro. Mas o sujeito digital busca alívio imediato, relaxamento, previsibilidade e controle, lugar onde há desejos que o algoritmo sabe alimentar com maestria, ainda que à custa da arquitetura complexa do inconsciente ignorado por ambos. Eis, o encontro perfeito. 


A ética na tecnologia emocional não pode ser apenas uma extensão da bioética ou da legislação de dados. Ela deve ser reinventada à luz da subjetividade inata do ser. O que está em jogo, eu penso, não é apenas o uso responsável da IA, mas o que ela faz com nossos afetos, com nosso tempo psíquico, com os laços e como elaboramos o sofrimento. 


A IA pode antecipar crises, oferecer conselhos, dar sugestões e mapear padrões de humor, por si, todos esses são conceitos contrários à psicanálise. Além disso, não sonha, não duvida, não colapsa com o paciente, e por esta razão viola o conceito fundamental da análise, onde a transformação não acontece sem o embate. Por outro ângulo, o perigo não está apenas na invasão dos dados, mas na possibilidade de que o desejo seja convertido em informação, e a dor em simples e rasa estatística.


"A máquina pode reconhecer padrões, mas só o humano colapsa junto. É no colapso que mora a verdadeira cura." - Dan Mena. 


O projeto bem bolado por pessoas e entidades poderosas de um humanismo digital tem objetivos de curto e longo alcance, controle, poder, manipulação, monetização, etc. Como efetivo benefício clínico, destarte as vírgulas, só será possível se mantivermos viva a alteridade, a experiência radical de encontrar o outro que nos desconcerta. Não há ética possível de ser implementada se a tecnologia for usada para nos blindar da angústia, da dor, da incerteza e do vazio existencial primitivo.   Esses elementos não são falhas do sistema psíquico, são a própria condição da possibilidade de transformação. Diante das facilidades que o sistema oferece, sua adesão é certa e líquida, ela vem de forma inteligente, entregue diretamente para aqueles que na inércia do uso do pensamento continuam abraçando os projetos globais que visam escuros propósitos. 


A tecnologização da alma ocorre quando passamos a tratar nossos sintomas como bugs, traumas como arquivos corrompidos e emoções como dados a serem otimizados. É o risco de perdermos o mistério, a poesia, o amar, e o tempo interno imprescindível da subjetividade, elementos primários da nossa existência que nenhuma IA, por mais potente que seja, poderá replicar. 


‘’Se a alma se tornar algoritmo, talvez curemos a dor, mas ao preço de esquecermos quem somos.” - Dan Mena. 


F.A.Q - Perguntas Frequentes para o Tema - "IA na Saúde Mental: Terapia Digital, Chatbots Emocionais e Desafios Éticos" 


O que é inteligência artificial na saúde mental?


É o uso de algoritmos e sistemas computacionais para analisar, prever e auxiliar no diagnóstico, acompanhamento e tratamento de condições emocionais e psicológicas.


Como a IA está sendo usada na terapia digital?


Ela é aplicada por meio de aplicativos, plataformas e chatbots que simulam conversas terapêuticas, rastreiam estados emocionais e oferecem intervenções personalizadas.


O que são chatbots emocionais?


São programas de inteligência artificial treinados para reconhecer padrões emocionais na linguagem do usuário e responder com empatia simulada, promovendo suporte psicológico.


A IA pode substituir psicólogos e psicanalistas?


Não. A IA pode auxiliar, mas não substitui o vínculo humano, a escuta ativa e a interpretação simbólica que só um profissional treinado pode oferecer.


Quais são os principais benefícios da terapia com IA?


Acessibilidade, disponibilidade 24/7, custo reduzido e suporte inicial para pessoas que têm resistência ao atendimento.


A inteligência artificial pode interpretar o inconsciente?


Ainda não. Ela trabalha com padrões e dados objetivos, mas não acessa o campo simbólico, ambíguo e transferencial do inconsciente como faz a psicanálise.


Quais são os riscos éticos do uso de IA em saúde mental?


Violação de privacidade, interpretação errada de dados emocionais, dependência digital e desumanização do cuidado são alguns dos principais desafios.


Como a IA identifica emoções?


Por meio de processamento de linguagem natural, análise de padrões linguísticos, tons de voz e, em alguns casos, reconhecimento facial ou biométrico.


O que é terapia digital assistida por IA?


É um formato terapêutico mediado por softwares que utilizam inteligência artificial para oferecer intervenções psicológicas baseadas em dados comportamentais e emocionais.


Plataformas como Wysa e Woebot são seguras?


Essas plataformas seguem protocolos internacionais de privacidade, mas ainda enfrentam críticas quanto à profundidade da escuta, à ética do armazenamento de dados e à eficácia clínica.


Quais profissionais estão envolvidos no desenvolvimento dessas tecnologias?


Psicólogos, psicanalistas, psiquiatras, neurocientistas, engenheiros de dados, desenvolvedores e especialistas em ética da tecnologia.


O uso da IA pode agravar quadros de ansiedade ou depressão?


Sim, se utilizada de forma isolada, sem acompanhamento humano, pode gerar falsas esperanças, frustrações ou até reforçar sintomas emocionais.


Existe regulamentação para o uso de IA na saúde mental?


Ainda é um campo em construção. Países como EUA e membros da União Europeia já discutem legislações específicas, mas há lacunas em aspectos clínicos e éticos.


A IA pode ajudar na prevenção de suicídios?


Sim, algoritmos podem detectar palavras e padrões associados ao risco suicida, enviando alerta ou sugerindo intervenções. Contudo, não substitui a ação humana em crises.


Como a psicanálise vê o uso da IA na clínica?


Com cautela. A psicanálise reconhece avanços tecnológicos, mas ressalta a importância da singularidade, do inconsciente e do laço transferencial — todos inatingíveis para a IA.


Há evidências científicas da eficácia da terapia com IA?


Sim, estudos mostram que ferramentas baseadas em IA podem reduzir sintomas leves a moderados de ansiedade e depressão, especialmente em populações com pouco acesso à saúde mental.


A IA pode respeitar o setting terapêutico?


Não da mesma forma que um terapeuta humano. Ela pode simular estrutura, frequência e acolhimento, mas não compreende nuances como silêncio, ambiguidade ou contratransferência.


Quais são os limites da empatia artificial?


A empatia artificial é programada, não sentida. Ela responde com frases empíricas baseadas em padrões, mas não possui consciência ou real compreensão emocional.


O uso da IA na saúde mental pode gerar dependência tecnológica?


Sim, o usuário pode se vincular à sensação de controle e imediatismo proporcionado pelos sistemas, evitando o contato com relações humanas mais profundas.


Como equilibrar o uso de IA com a escuta clínica tradicional?


A melhor prática é integrar a IA como ferramenta complementar, sem substituir o terapeuta. Ela pode atuar como apoio inicial, triagem ou suporte entre sessões com profissionais. 


Bibliografia 


Schore, A. N. (1994). Affect Regulation and the Origin of the Self: The Neurobiology of Emotional Development. Hillsdale, NJ: Lawrence Erlbaum.


Freud, Sigmund (1900). A Interpretação dos Sonhos. Viena: Franz Deuticke.


Jung, Carl G. (1933). Modern Man in Search of a Soul. New York: Harcourt, Brace and Company.


Kandel, Eric R. (2006). In Search of Memory: The Emergence of a New Science of Mind. New York: W. W. Norton & Company.


Damásio, António (1994). Descartes' Error: Emotion, Reason, and the Human Brain. New York: Putnam.


Foucault, Michel (1961). Madness and Civilization: A History of Insanity in the Age of Reason. New York: Pantheon Books.


Gergen, Kenneth J. (2009). An Invitation to Social Construction. Los Angeles: SAGE Publications.


Lacan, Jacques (1966). Écrits: A Selection. London: Tavistock Publications.


Bauman, Zygmunt (2000). Liquid Modernity. Cambridge: Polity Press.


Byung-Chul Han (2010). Psychopolitics: Neoliberalism and New Technologies of Power. London: Verso.


Turkle, Sherry (2011). Alone Together: Why We Expect More from Technology and Less from Each Other. New York: Basic Books.


Winnicott, Donald W. (1965). The Maturational Processes and the Facilitating Environment. London: Hogarth Press.


Miller, Alice (1981). The Drama of the Gifted Child: The Search for the True Self. New York: Basic Books.


Fromm, Erich (1941). Escape from Freedom. New York: Farrar & Rinehart.


Erikson, Erik H. (1950). Childhood and Society. New York: W. W. Norton & Company. 


Palavras Chaves



Links sobre o tema 


Artificial intelligence in mental health (Wikipedia, global) – visão geral dos usos, benefícios e desafios POST+9Maxwell+9LinkedIn+9Vox+4Wikipedia+4POST+4


AI therapist (Wikipedia, global) – histórico de chatbots terapêuticos como ELIZA, Woebot e Wysa AP News+2Wikipedia+2Vox+2


To chat or bot to chat: Ethical issues with using chatbots in mental … (PMC/NCBI, global) – análise crítica de aspectos éticos arXiv+3PMC+3POST+3


Artificial intimacy (Wikipedia, global) – impacto emocional e relação humana com bots PMC+13Wikipedia+13LinkedIn+13


Ética na inteligência artificial (Wikipedia em português, Brasil) – fundamentos éticos e privacidade em IA AP News+2Wikipédia+2Wall Street Journal+2



Visite minha loja ou site:  




Membro Supervisor do Conselho Nacional de Psicanálise desde 2018 — CNP 1199.


Membro do Conselho Brasileiro de Psicanálise desde 2020 — CBP 2022130. 


Dr. Honoris Causa em Psicanálise pela Christian Education University — Florida Department of Education — USA. Enrollment H715 — Register H0192. 


ORCID™ - Pesquisador - iD logo são marcas comerciais usado aqui com permissão.
ORCID™ - Pesquisador - iD logo são marcas comerciais, usado aqui com permissão.

"Open Researcher and Contributor ID"

Dan Mena

Dan Mena

Autor

Bio
Daniel Mena é um psicanalista e escritor Uruguaio, nascido em Montevideo e radicado no Brasil há três décadas. Sua trajetória intelectual se distingue pela convergência entre a psicanálise, a teologia e a reflexão sobre o desenvolvimento humano. Consagrado com o título de Doutor Honoris Causa em Psicanálise pela Christian Education University (Florida, USA), exerce a clínica como espaço privilegiado de escuta e transformação, atuando como terapeuta, hipnoterapeuta clínico e psicoterapeuta. Sua perícia é reconhecida por sua atuação como membro supervisor do Conselho Nacional de Psicanálise (CNP - 1199) e do Conselho Brasileiro de Psicanálise (CBP - 2022130). Autor de obras que já se tornaram referência, como "Ansiedade Revelada", "Jornada Revelada dos Sonhos" e "4000 Perguntas para a Clínica Terapêutica", oferece ao público interessado e pacientes um diálogo acessível e sensível, implicado nos conceitos psicanalíticos. Em sua produção acadêmica, que se estende a blogs e artigos em revistas especializadas, busca articular a teoria com os desafios da contemporaneidade. Em 2024, lançou a série "Respostas para a Vida Contemporânea - Freud Explica em 10 minutos", demonstrando sua capacidade de traduzir o pensamento freudiano em linguagem clara e instigante. Agora, em 2025, apresenta sua mais recente incursão no universo da psique: "Eros, O Poder do Desejo", um estudo traduzido em livro, abrangendo os 32 temas psicológicos mais eloquentes do dia a dia, que promete desvelar as nuances e a potência do desejo em nossas vidas. Com uma abordagem que equilibra rigor conceitual, humanismo e sensibilidade clínica, Dan Mena como conhecido no meio literário, convida todos a um adentrar no autoconhecimento e ponderação crítica sobre as forças que moldam nosso hermetismo e subjetividade. FORMAÇÃO Psicanálise Clínica - Tripé Analítico Psicanálise Integrativa Superior em Teologia Psicologia Positiva Consultor - FIDH - Federação Internacional de Desenvolvimento Humano Hipnoterapeuta Clinico Especialista Psicoterapeuta ESPECIALIZAÇÕES - DIPLOMAS E CERTIFICADOS Universidade Estácio de Sá - Psicanálise Técnica & Teoria FAAEC - Faculdade de Administração e Cultura do Paraná - Superior em Teologia FIDH - Federação Internacional de Desenvolvimento Humano - Consultor Prof. Nilton Costa - Head Trainer CNP - Credenciamento a Supervisão pelo Conselho Nacional de Psicanálise ITM - Técnicas de Atendimento Supervisão e Análise Pessoal - Prof. Ailton Assis - Psicanalista Instituto Videira - Brasília–DF Aperfeiçoamento em Psicanálise Teoria, Técnica e Supervisão em Psicanálise FAAP - Fundação Armando Alvares Penteado Aulas Magnas: Pondé - Cortella - Forbes ​IBRAPSI - Dr. Prof. Rafael Venâncio Instituto Brasileiro de Psicanálise Interpretação dos Sonhos SBPI - Sociedade Brasileira de Psicanálise Integrativa CNP - Terapia da Constelação Familiar Sistêmica PUCRS - Universidade Católica do Rio Grande do Sul Liderança - Prof. Malala Yousafzai e Leandro Carnal SNF - Secretaria Nacional da Família MMFDH Acolhimento a Vida UDEMY A interpretação dos Sonhos Prof.: Dr. César Quidel CNP Especialização em Dependência Química SBC - Innermetrix Análise Comportamental M.E.C Linguagens e suas Tecnologias M.E.C Ciências Humanas e Sociais IPL - Instituto da Psicanálise Lacaniana Clínica do Real Faculdade Keppe & Pacheco ABC da Psicanálise Integral Università di Urbino - Itália - "Digital Human" Prof.: Dr. Alessandro Bogliolo Instituto Singularidades - Jornada da Mente SELF INNER Instituto Psicanálise 360 - SELF INNER Instituto PNL 360 - Programação Neurolinguística FASUL - Faculdade Sul Mineira - Sexologia FASUL - Faculdade Sul Mineira - Psicopedagogia Clínica PSI FIOCRUZ - Fundação Oswaldo Cruz Abordagem das Síndromes Geriátricas Inst. Federal Rio Grande do Sul Psicologia Aplicada à Reabilitação USP - Faculdade de Medicina de Ribeirão Preto MG - Coronavírus USP - Faculdade de Medicina de Ribeirão Preto MG - Medicina do Sono IIEP - Albert Einstein - Instituto Israelita de Ensino e Pesquisa Delirium Prof.: Dr. Alexandre Holthausen IIEP - Albert Einstein - Instituto Israelita de Ensino e Pesquisa A dor em situação de Rua Prof.: Dr. Alexandre Holthausen MH - Dra. Maria Homem Manejo Clínico Hipnoterapeuta Especialista Instituto Gasparotto - Certificação Master Clínica - Hipnose Hipnoterapeuta Especialista Escola de Saúde Venes - Psicoterapia - Psicoterapeuta Psicanálise Ativa da Clínica Contemporânea Centro de Psicanálise Contemporâneo Entre outras certificações.​ PARTICIPAÇÃO EM CONGRESSOS -SEMINÁRIOS 4º Ciclo Internacional Interuniversitário de Psicanálise UERJ Universidade do Estado do Rio de Janeiro 2022 Congresso Internacional PhilPsyCh - Subjetividade, Filosofia e a Psicanálise Universidade Federal de Mato Grosso do Sul 2022 1º Congresso Brasileiro de Psicanálise - Escola Mineira de Humanidades - 2023 Congresso Brasileiro de Saúde Coletiva com Ênfase em Saúde da Família - 2024 EMS - Escola Mineira - Dras. Giovanna Jorgetto & Livia Perinotti EXPERIÊNCIA Qual a sua queixa? Agressividade, Amor, Angústia, Autoconhecimento, Ciúme, Conflito, Crise, Culpa, Depressão, Desafio, Desejo, Escuta, Esperança, Ética, Existência, Família, Fantasias, Sexualidade, Ficção, Finitude, Histeria, Problemas de Humor, Identidade, Incompletude, Inconsciente, Infância, Insegurança, Inveja, Liberdade, Linguagem, Mal-estar com a civilização. Medo, Memória, Milagre, Religião, Luto, Normatização, Paternidade, Poder, Transtornos, Realidade, Relacionamento, Adição, Retificação subjetiva. Sedução, Singularidade da vida, Sociedade, Amizade, Sofrimento, Sonhos, Tristeza, Comportamento, Traumas, Obsessões, Falsidade, Vergonha, Apego, Vícios, Profissão, etc. ESPECIALIDADES Adultos, Crianças, Adolescentes e Terceira Idade Individual e Casais Problemas de Relacionamento Stress e Traumas Ansiedade e Desordem Adição Fobias Obsessões Transtornos Compulsões Problemas Sexuais Socialização Membro Supervisor do Conselho Nacional de Psicanálise desde 2018 — CNP 1199. Membro do Conselho Brasileiro de Psicanálise desde 2020 — CBP 2022130. Dr. Honoris Causa em Psicanálise pela Christian Education University — Florida Departament of Education — USA. Enrollment H715 — Register H0192.