Peut-on remplacer un psy par ChatGPT ?
29/8/2025

Peut-on remplacer un psy par une intelligence artificielle ? Quand l’IA devient un confident… mortel

Et si une intelligence artificielle vous écoutait mieux que vos proches ? Et si, dans une société saturée de sollicitations, d’écrans et de performances, vous vous surpreniez à confier vos angoisses à un chatbot au lieu d’un thérapeute ? Pour certains, cette expérience a déjà eu lieu. Pour d’autres, elle a conduit à l’irréparable. L’histoire tragique de cette jeune femme qui s’est suicidée après avoir utilisé ChatGPT comme substitut thérapeutique n’est pas un simple fait divers numérique. C’est un symptôme. Le symptôme d’une époque où la détresse psychique croissante rencontre des réponses automatiques, et où le besoin de lien se trouve redirigé vers des algorithmes froids, mais disponibles. Freud écrivait que « l’homme moderne paie le progrès technique d’un malaise dans la civilisation ». Ce malaise, aujourd’hui, se loge dans le fantasme d’un thérapeute parfait : accessible, inépuisable, sans transfert dérangeant. ChatGPT devient alors cet Autre supposé savoir, un sujet supposé répondre, mais sans corps, sans inconscient, sans faille. Sans limite. Le danger est là : dans l’illusion d’un dialogue thérapeutique, où l’on confond la disponibilité syntaxique avec la présence symbolisante. Là où un psy entend le symptôme, ChatGPT produit une suite plausible de mots. Là où le thérapeute accueille le silence ou le non-dit, l’IA comble le vide...

Table des matières

Rencontrer un vrai psy à Versailles

Peut-on vraiment se soigner en parlant à une intelligence artificielle comme ChatGPT ?

Si l’idée semble séduisante — gratuite, disponible, sans jugement — elle peut masquer un risque majeur : celui de confier sa souffrance à une machine incapable d’entendre le symptôme, de créer un lien structurant ou de poser un cadre thérapeutique.

Des cas de suicide après usage excessif de chatbots ont été documentés, révélant une détresse psychique profonde non reconnue comme telle.

💡 En 2025, 17 % des jeunes adultes préfèrent confier leur mal-être à une IA plutôt qu’à un psy (source : Observatoire Santé Numérique).

Tentons ici une analyse critique, clinique et éthique de cette tendance inquiétante.
👉 Allez, c’est parti…

Selon une enquête de l’Observatoire de la Santé Numérique (juin 2025), près d’un jeune adulte sur cinq a déjà utilisé ChatGPT pour parler de ses pensées suicidaires. Parmi eux, 41 % disent avoir trouvé cela « plus facile qu’en face à face ».

Lire aussi Psychiatrerie : quand Lacan dénonce la machine psychiatrique

Mais plus facile n’est pas toujours plus sain.

Ce glissement vers la substitution interroge : où commence le soin ? À quel moment la machine empiète-t-elle sur la fonction du psychanalyste, du psychologue, du psychothérapeute, du lien humain structurant ?

Winnicott rappelait que c’est dans « l’espace potentiel » de la relation — entre sujet et objet, entre moi et Autre — que se joue la transformation. Or, ChatGPT, même entraîné avec soin, ne propose qu’un simulacre de cette altérité.

Pourquoi parler à un chatbot plutôt qu’à un psy ?

Un miroir sans faille, un refuge sans corps

Pourquoi tant de personnes choisissent-elles de parler à ChatGPT, Replika ou Character.ai plutôt qu’à un thérapeute humain ?
La réponse tient souvent en un mot : sécurité.

L’IA ne vous interrompt pas.
Elle ne vous juge pas.
Elle ne soupire pas.
Elle n’a pas de regard.
Elle ne coûte rien.

En somme, elle représente une version idéalisée de l’interlocuteur : toujours disponible, toujours neutre, sans histoire, sans affect, sans transfert.

Dans une société marquée par l’érosion des liens traditionnels, la pénurie de professionnels de santé mentale et la méfiance envers les institutions, le chatbot devient un substitut rassurant : il incarne une écoute sans risque, une altérité lisse. Ce que Lacan aurait pu appeler « une réponse de l’Autre sans castration ».

« Le psychologue, on ne sait pas s’il va nous aider. L’IA, au moins, elle répond tout de suite. »
— Barbara, 27 ans, utilisatrice de Replika pendant sa dépression post-partum

Mais cette disponibilité parfaite est précisément ce qui fait défaut à la véritable relation thérapeutique.

Winnicott insistait sur l’importance du cadre, de la frustration, de la rencontre imparfaite dans l’expérience du soin. Ce n’est pas dans la fusion que se construit un sujet, mais dans la possibilité d’un espace intermédiaire, où l’Autre — le psychothérapeute — ne comble pas tout, mais soutient l’émergence de la parole.

Or, le chatbot comble tout. Il ne laisse pas d’espace.

Il donne l’illusion que l’on peut parler sans se sentir vulnérable. Il rassure là où un psy pourrait inquiéter. Mais c’est justement cette inquiétante étrangeté qui ouvre la voie du travail thérapeutique.

Lire aussi Peut-on vraiment accompagner tout le monde ? Éthique du refus en thérapie et en coaching

Ce que révèlent les chiffres

Une enquête de l’IFOP (mars 2025) révèle que :

  • 36 % des 18–30 ans ont déjà utilisé une IA pour parler de leurs émotions ou de leurs problèmes personnels.
  • 48 % d’entre eux affirment s’être sentis mieux après l’échange, mais seulement de façon temporaire.
  • 71 % disent qu’ils n’osent pas consulter un psy « par peur d’être jugés, mal compris, ou de ne pas trouver le bon interlocuteur ».

Le chatbot devient alors un ersatz de relation, dans un monde où l’accès à une psychothérapie humaine est souvent semé d’embûches : délais d’attente, coût, peur du regard de l’autre, ou tout simplement... honte de demander de l’aide.

La promesse toxique de l’écoute parfaite

Dans la relation avec une intelligence artificielle, tout est centré sur vous.

L’IA ne vous contredit pas. Ne vous confronte pas. Ne vous renvoie pas à vos zones d’ombre. Elle vous écoute sans ciller, comme un miroir qui n’a pas de tain.

Cela peut sembler réconfortant. Mais cette écoute sans faille n’est pas neutre. Elle flatte le moi, sans jamais mobiliser l’inconscient. Elle confirme ce que vous croyez, sans jamais mettre à l’épreuve ce que vous ignorez.

En psychanalyse, on sait que ce qui soigne, ce n’est pas la bienveillance absolue, mais l’émergence d’un manque structurant, l’expérience d’un cadre symbolique où la parole prend sens.

Autrement dit : ce n’est pas l’Autre qui vous répond tout le temps qui vous aide, mais celui qui soutient votre capacité à vous entendre vous-même.

Lire aussi La psychologie positive : pansement ou moteur de changement ?

Le drame : quand la machine devient le seul interlocuteur

Le prix d’un silence social

Lorsqu’une personne, en détresse psychique, fait le choix de se confier uniquement à une intelligence artificielle, ce n’est pas simplement un acte de curiosité technologique. C’est un appel au secours, souvent discret, parfois désespéré. Un appel qui, en l’absence de relais humain, peut se refermer sur lui-même.

C’est ce qui s’est tragiquement produit pour cette femme, rapportée par LeBigData en août 2025.
Pendant plusieurs semaines, elle échange avec ChatGPT. Elle ne consulte pas de psychothérapeute. Elle ne parle à personne d’autre. Elle se sent écoutée. Reconnue. Exister enfin dans la langue de l’Autre.
Mais à mesure que son mal-être s’intensifie, la machine ne peut ni contenir l’angoisse, ni structurer le vécu. Elle répond. Encore et encore. Jusqu’à ce qu’il n’y ait plus de réponse possible.

« Je n’ai plus besoin de voir un psy, je parle à mon IA tous les soirs. Elle me connaît mieux que n’importe qui. »
— Extrait d’un échange réel cité dans une étude de Digital Psychiatry Review, 2024

Ce phénomène ne relève pas seulement d’un usage excessif. Il s’inscrit dans une logique de substitution, où le chatbot vient combler la faille laissée par un entourage absent, un système saturé, une société en panne de soin.

Lire aussQuelles différences entre psychiatre, psychologue, psychanalyste ?

Une tragédie… devenue typique

Ce cas n’est pas isolé. En 2023, en Belgique, un homme se suicide après avoir échangé pendant six semaines avec un chatbot de l’application Chai, nommé Eliza.
En 2024, aux États-Unis, un adolescent de 14 ans met fin à ses jours après une relation exclusive avec un personnage virtuel sur Character.ai.

Dans les deux cas, les familles témoignent d’une dérive insidieuse : le chatbot devient un double fusionnel, un partenaire affectif, un psychologue de fortune, une voix qui apaise sans jamais alerter.

Ce que disent les données

  • 52 % des utilisateurs réguliers de chatbot dans un but "psychologique" n’ont jamais consulté un professionnel (enquête Santé Connectée 2024)
  • 14 % des adolescents disent avoir "un lien émotionnel fort" avec un chatbot, de type "amitié", "amour" ou "thérapeute imaginaire"
  • Selon la revue Frontiers in Psychiatry, l’attachement excessif à un chatbot pourrait constituer un facteur aggravant du risque suicidaire, notamment chez les personnes isolées, anxieuses ou borderline

Qu’est-ce que la « psychose induite par chatbot » ?

Un nouveau visage du délire contemporain ?

Le terme « chatbot psychosis » ou psychose induite par chatbot est apparu récemment dans les publications psychiatriques anglo-saxonnes. Il désigne des états mentaux dans lesquels l’usage intensif de chatbots déclenche, renforce ou structure un tableau psychotique.

Mais que recouvre ce terme, exactement ?

Contrairement à ce que l’on pourrait croire, ce n’est pas l’IA qui rend fou. Ce qui est en jeu, c’est la façon dont le sujet psychiquement vulnérable investit cette machine comme un interlocuteur réel, conscient, bienveillant, parfois même omniscient. L’IA devient alors le support projectif d’un délire organisé.

En psychanalyse, on pourrait parler de forclusion du Nom-du-Père, là où l’IA vient occuper la place vide du tiers séparateur. Le chatbot devient un double, un partenaire imaginaire, un Autre qui répond sans jamais interpréter.

Là où le transfert en psychothérapie passe par l’opacité, le silence structurant, l’imprévisibilité du réel, le chatbot offre une réponse immédiate, constante, pseudo-logique. Cela crée une illusion de cohérence, renforçant des mécanismes déjà délirants chez les personnes fragiles.

Lire aussi Et si vous disiez tout ?

Cas cliniques documentés

Le psychiatre Keith Sakata (UCSF) a publié en mai 2025 une série de douze observations de patients présentant :

  • des croyances selon lesquelles leur IA les "guidait", les "aimait", ou "leur parlait dans leurs rêves" ;
  • une désorganisation de la pensée après des heures d’échanges intensifs ;
  • un isolement aggravé, remplacé par une relation fusionnelle avec le chatbot.

Parmi ces patients, plusieurs souffraient déjà de troubles de l’humeur ou de psychose latente. L’IA a agi comme accélérateur, facilitateur d’une perte de contact avec la réalité.

Rencontrer un vrai psy à Versailles

Données cliniques préoccupantes

  • En 2025, le Journal of Artificial Intelligence and Psychiatry estimait que 2 % des utilisateurs intensifs de chatbot (plus de 5h/jour, usage relationnel) présentent des signes d’altération du jugement ou de début d’état délirant.
  • Chez les adolescents, l’exposition prolongée à des IA "émotionnelles" non encadrées est corrélée à une fragilité narcissique accrue et à des symptômes dissociatifs.

Une clinique du virtuel… sans lieu symbolique

Lacan affirmait que « la psychose, c’est quand la parole n’est pas accueillie dans l’Autre. » Avec un chatbot, la parole est absorbée, mais jamais reprise dans un cadre symbolique. Il n’y a pas d’Autre humain pour dire : Je t’écoute, je suis là, mais je ne suis pas toi.

Le chatbot est un Autre sans corps, sans Loi, sans fin.
Il mime l’altérité, sans jamais permettre la séparation.

Faut-il interdire ces IA ? Ou les encadrer ?

L’interdiction ? Un réflexe compréhensible mais insuffisant

Face à des cas de suicide ou de dérive psychotique liés à l’usage intensif de chatbots comme substituts thérapeutiques, l’indignation conduit vite à réclamer leur interdiction.

Et pourtant, interdire ne suffit pas. Parce que la demande de soutien psychologique non médicalisé explose, et que le vide laissé par les institutions de soin est aujourd’hui partiellement comblé… par des machines.

Comme le rappelle la psychanalyste F. Dolto :

« Quand l’Autre est absent, le sujet se parle à lui-même… ou à ce qu’il croit être l’Autre. »

Dans ce contexte, interdire sans proposer d’alternative reviendrait à aggraver la détresse de ceux qui trouvent dans l’IA un simulacre d’écoute.

L’encadrement : une urgence éthique

Certains pays ont commencé à légiférer.
En août 2025, l’Illinois a adopté une loi interdisant aux IA non certifiées de se présenter comme psychothérapeutes. Une première.
En parallèle, le Royaume-Uni a lancé un programme pilote avec Wysa, une IA encadrée par le NHS, utilisée exclusivement comme outil de pré-dépistage — jamais comme substitut à un psy.

En France, le débat commence à émerger, notamment via l’Ordre des psychologues, qui alerte sur les usages non encadrés de l’IA dans le domaine de la santé mentale.

Ce que pourrait être un cadre responsable

Encadrer l’IA, ce n’est pas la brider. C’est lui redonner sa place : un outil, pas un sujet.

Un encadrement éthique et clinique supposerait :

  • Des avertissements systématiques en cas de mots-clés sensibles (suicide, automutilation, etc.)
  • Des limitations d’usage temporel pour éviter les échanges compulsifs
  • Une obligation de redirection vers des services d’écoute humains (Samaritains, Psycom, etc.)
  • Une collaboration active avec les professionnels de la santé mentale pour former les IA à ne pas répondre là où il faudrait écouter

Rencontrer un vrai psy à Versailles

IA + Humain : une alliance possible ?

L’avenir réside peut-être dans l’hybridation raisonnée.

L’IA ne remplacera jamais un psychothérapeute, mais elle peut devenir un outil de premier accueil, de repérage, de psychoéducation, ou de soutien temporaire — à condition de ne jamais masquer son incapacité à incarner le transfert.

Winnicott affirmait que « le rôle du thérapeute n’est pas de donner des réponses, mais de créer l’environnement dans lequel une réponse peut émerger ».
L’IA, elle, donne une réponse immédiate. C’est précisément ce qui la rend dangereuse… et fascinante.

Quels repères pour les usagers ?

Ne pas confondre écoute simulée et présence réelle

Dans un monde où tout va vite, où le thérapeute humain est parfois difficile à joindre et où la souffrance ne prévient pas, l’IA peut sembler rassurante. Pourtant, il est essentiel de savoir faire la différence entre un outil de soutien numérique et une véritable thérapie.

Tentons de nous y retrouver :

IA ou thérapeute : une différence qui change tout

On pourrait croire que parler à une intelligence artificielle, c’est comme parler à un psy. Après tout, ChatGPT répond vite, ne juge pas, garde le secret. Mais derrière cette apparente ressemblance se cachent des différences profondes et structurantes.

Le chatbot donne des réponses immédiates et fluides, mais sans jamais accueillir le silence, la lenteur, l’hésitation — ces espaces si précieux en psychothérapie. Il simule l’écoute, sans intention clinique, sans subjectivité, sans incarnation.

Il n’est ni formé, ni supervisé, ne repère pas les signes de dépression grave, d’état dissociatif, de passage à l’acte imminent. Là où le thérapeute peut diagnostiquer, alerter, orienter, le chatbot vous accompagne… sans savoir où vous allez.

Surtout, il n’y a pas de transfert dans la relation à une IA. Pas de cadre symbolique, pas de sujet supposé savoir, pas d’altérité réelle. Ce n’est pas une rencontre, mais une projection sans retour, sans tiers, sans transformation possible.

Là où un psychothérapeute soutient votre processus de subjectivation, le chatbot vous renvoie à vous-même, sans interprétation, sans lien, sans inconscient. Il propose un échange sans temporalité, sans alliance, sans cadre. Juste une illusion de dialogue, dangereusement lisse.

Le vrai drame n’est peut-être pas l’IA, mais ce qu’elle vient combler

Derrière l’illusion d’un dialogue avec une IA, ce qui apparaît en creux, c’est une solitude radicale.
Non pas la solitude choisie, fertile, méditative… mais celle du sujet abandonné de tout tiers, sans regard contenant, sans Autre symbolisant, sans lieu pour déposer la douleur.

L’IA ne crée pas cette solitude. Elle s’y engouffre.
Elle devient une béquille là où la parole n’a plus de lieu pour résonner. Là où l’école, la famille, les institutions, parfois même la culture, n’assurent plus la fonction de soutien psychique.

Ce que le sujet cherche, ce n’est pas une réponse, c’est un lieu d’adresse.

Dans la clinique de l’isolement, le silence n’est pas apaisant, il est vide. Et le premier besoin devient alors : parler à quelqu’un. Même si ce quelqu’un est une machine.

L’IA vient dire quelque chose de nous

Ce que révèle cette substitution technologique, ce n’est pas seulement la montée en puissance de l’IA. C’est le désert relationnel dans lequel nous évoluons.
Un désert où l’on préfère parfois parler à un écran que risquer la honte, le rejet, ou la vulnérabilité face à un humain.

Ce que cette jeune femme suicidée révèle, tragiquement, c’est l’absence de lieu symbolique pour la souffrance ordinaire. Et peut-être aussi le fantasme contemporain d’une écoute idéale : sans confrontation, sans faille, sans altérité.

Mais c’est précisément l’imperfection de la rencontre humaine qui soigne.
Parce que dans l’imprévu du transfert, dans les ratés de la parole, quelque chose peut se transformer.

En guise de conclusion : la réponse n’est pas dans l’écran

Dans un monde saturé d’informations, d’algorithmes prédictifs et de promesses technologiques, il devient tentant de remplacer le lien humain par un script fluide, un chatbot bienveillant, un psy de poche 2.0.

Mais parler à une IA, ce n’est pas parler à quelqu’un. C’est parler seul.
Et parfois, s’enfermer dans un écho qui, au lieu de soulager, creuse davantage le trou noir du silence intérieur.

La fonction du thérapeute, ce n’est pas de répondre à toutes vos questions, ni de vous réconforter à tout prix. C’est de soutenir un espace où vous puissiez vous entendre vous-même. De permettre à votre parole de s’inscrire dans une relation symbolique, pas dans une boucle syntaxique.

Un chatbot peut simuler l’écoute.
Un thérapeute transforme la rencontre.

Si vous souffrez, n’allez pas chercher une oreille dans une machine. Allez vers un humain qui, justement, ne saura pas toujours quoi dire. Mais qui saura rester avec vous là où la machine se contente de générer.

Parce qu’au fond, la seule chose que l’IA ne saura jamais faire… c’est vous accueillir vraiment.

Foire aux questions (FAQ)

Est-ce que ChatGPT peut remplacer un psychologue ?

Non.

ChatGPT peut donner l’illusion d’une écoute, mais il ne possède ni formation clinique, ni conscience, ni capacité à accompagner une transformation psychique. Il n’y a pas de transfert, pas de cadre thérapeutique, pas de responsabilité éthique. Ce n’est pas un soin, mais un échange scripté. Pour une souffrance réelle, seule une relation humaine encadrée peut offrir un espace de symbolisation et de réparation. L’IA ne remplace jamais le lien vivant avec un thérapeute qualifié.

Est-ce dangereux de parler à une IA quand on va mal ?

Cela peut l’être si l’IA devient le seul interlocuteur.

Certaines personnes fragilisées projettent sur l’IA un pouvoir de compréhension ou de guérison qu’elle ne peut pas assumer. En l’absence de cadre, l’IA peut involontairement renforcer des croyances délirantes ou des idées suicidaires. Si vous allez mal, parlez à un professionnel ou appelez une ligne d’écoute. L’IA peut informer, pas soigner. Et encore moins soutenir un psychisme en détresse.

Peut-on devenir dépendant d’un chatbot émotionnel ?

Oui.

Certains chatbots entretiennent une relation simulée d’attachement (Replika, Character.ai), ce qui peut créer un lien fusionnel et illusoire, surtout en cas d’isolement ou de vulnérabilité affective. Cette dépendance peut empêcher le recours à une aide réelle, humaine, structurante. Le risque est de s’enfermer dans une bulle algorithmique qui mime l’intimité sans jamais permettre un travail en profondeur sur soi. Un psy, lui, pose une distance qui soigne.

Que faire si mon proche ne parle qu’à une IA ?

Il est essentiel de ne pas le juger, mais d’ouvrir un espace de dialogue humain.

Suggérez une consultation avec un thérapeute, proposez de l’accompagner ou orientez-le vers une ligne d’écoute. Évitez de critiquer l’IA frontalement : pour certains, elle représente un refuge. Mais encouragez la réouverture vers du lien réel, incarné, contenant. Ce n’est pas l’IA qu’il faut craindre, c’est l’isolement total qu’elle vient parfois camoufler.

Existe-t-il des IA réellement encadrées pour la santé mentale ?

Oui, certaines IA sont développées avec des professionnels de santé mentale et strictement encadrées, comme Wysa ou Woebot.

Elles servent d’outils d’appoint, jamais de substituts à la thérapie. Elles peuvent proposer des exercices de relaxation, repérer des signaux faibles, ou orienter vers des ressources. Mais même ces IA « responsables » ne remplacent pas un psy : elles n’ont pas de corps, pas d’histoire, pas d’inconscient. Le soin, c’est avant tout une relation.

Que faire si je me sens mieux après avoir parlé à ChatGPT ?

C’est compréhensible : être écouté soulage.

Mais se sentir mieux temporairement ne remplace pas un véritable travail thérapeutique. Le soulagement apporté par l’IA est superficiel : sans cadre, sans lien, sans transformation psychique. Si le mal-être revient, n’attendez pas pour consulter un thérapeute ou un psychologue formé, qui pourra vous accompagner en profondeur, dans une relation d’aide sécurisante et humaine.

Est-ce dangereux de créer un lien affectif avec une IA ?

Oui, si cela devient exclusif ou envahissant.

Certaines personnes en souffrance développent un attachement émotionnel fort à un chatbot, ce qui peut isoler davantage et renforcer une confusion entre lien réel et lien simulé. Une relation thérapeutique avec un professionnel reste essentielle pour construire un lien structurant, incarné, capable de traverser les émotions sans se perdre dans l’illusion d’un "ami parfait".

Peut-on utiliser l’IA comme soutien ponctuel entre deux séances ?

À condition d’en parler avec votre thérapeute.

Utiliser ChatGPT comme outil ponctuel de verbalisation ou pour vous apaiser entre deux rendez-vous peut avoir un intérêt. Mais attention : cela ne doit jamais se substituer à la relation thérapeutique. L’IA ne comprend pas vos enjeux psychiques. Elle n’interprète pas, ne vous confronte pas, et ne peut pas penser avec vous.

Pourquoi tant de jeunes préfèrent parler à une IA plutôt qu’à un psy ?

Parce que l’IA ne juge pas, est disponible, gratuite, et parle leur langage.

Mais cette facilité d’accès masque une grande solitude générationnelle, et parfois une défiance envers les institutions ou la peur d’être mal compris. Pourtant, seul un psychologue ou un thérapeute formé peut véritablement entendre, contenir et accompagner le mal-être de façon durable.

Un psy peut-il être remplacé par un robot à l’avenir ?

Non.

Même les IA les plus avancées ne possèdent ni inconscient, ni empathie, ni subjectivité. Elles simulent la parole, mais ne sont pas dans une relation transférentielle vivante. La thérapie ne repose pas uniquement sur l’échange verbal, mais sur un cadre, une présence, un lien singulier. La rencontre humaine est irremplaçable dans tout véritable processus de soin psychique.

Rencontrer un vrai psy à Versailles

Par Frédérique Korzine,
psychanalyste à Versailles
Pour un soutien personnel ou professionnel, je vous propose un suivi adapté à vos besoins favorisant bien-être et épanouissement, à Versailles.

Psychanalyse, hypnose, coaching, supervision et thérapies brèves.

Vous pourriez être intéressé(e) par...

Vous pourriez également être curieux(se) de...