L’intelligence artificielle est entrée dans la psychothérapie par une porte latérale, sans remplacer d’emblée le cabinet, la séance ou la relation avec un thérapeute. Elle s’est d’abord installée dans les marges du soin, à travers des chatbots, des outils de suivi émotionnel, des questionnaires automatisés et des logiciels capables d’aider à repérer certains signaux dans des données de plus en plus nombreuses. Son arrivée fascine autant qu’elle inquiète, parce qu’elle touche à un espace où la parole humaine n’est jamais un simple échange d’informations.
La question ne se limite plus à savoir si une intelligence artificielle peut répondre à une personne en détresse, puisque beaucoup de systèmes savent déjà produire des réponses fluides, rassurantes et parfois très convaincantes. Le vrai point de tension se situe plutôt dans la différence entre une réponse crédible et une responsabilité thérapeutique. Une psychothérapie ne repose pas seulement sur des mots bien alignés, car elle engage une écoute, un cadre, une évaluation clinique, une prudence et une capacité à percevoir ce qui se dit parfois à moitié.
Une aide possible autour de la séance, pas au centre de la relation
L’usage le plus solide de l’intelligence artificielle en psychothérapie se trouve sans doute autour de la séance plutôt qu’à sa place. Elle peut aider à structurer un suivi, rappeler certains exercices, faciliter la tenue d’un journal émotionnel ou rendre plus lisibles les variations d’humeur dans le temps. Pour certains thérapeutes, ces outils apportent une continuité entre deux rendez-vous, notamment lorsque le patient a besoin de noter ce qu’il ressent sans attendre la séance suivante.
Un tel support peut avoir sa place, à condition de ne pas lui demander plus qu’il ne peut offrir. Un outil numérique peut recueillir des informations, organiser des tendances ou proposer des formulations générales, sans toujours reconnaître la singularité d’un silence, l’ambivalence d’une phrase, la honte derrière une plaisanterie ou la gravité d’un changement discret dans le discours. La psychothérapie se joue souvent dans ces détails qui échappent à une lecture uniquement statistique ou conversationnelle.
La place de l’IA devient donc intéressante lorsqu’elle allège certaines tâches et améliore le suivi sans prétendre occuper le fauteuil du thérapeute. Elle peut soutenir une pratique sans porter la relation, ce qui change tout. Dès qu’elle se présente comme un substitut affectif ou clinique, le glissement devient plus fragile.
Chatbots de santé mentale, une disponibilité qui séduit
Les chatbots de santé mentale séduisent d’abord par leur disponibilité, avec des réponses rapides, sans rendez-vous, sans regard extérieur et parfois sans coût apparent. Pour une personne isolée, honteuse ou inquiète à l’idée de consulter, cette accessibilité peut donner l’impression d’un premier appui. Le succès de ces outils révèle d’ailleurs une demande très forte de parole psychologique, y compris chez des publics qui ne franchissent pas facilement la porte d’un cabinet.
Une méta-analyse publiée en 2023 dans npj Digital Medicine a examiné l’effet d’agents conversationnels fondés sur l’intelligence artificielle sur la détresse psychologique et le bien-être. Les auteurs indiquent que ces outils peuvent avoir des effets favorables sur certains indicateurs, tout en soulignant la nécessité de mieux comprendre les facteurs qui influencent leur efficacité et l’expérience des utilisateurs. L’IA peut donc accompagner certains usages ciblés, sans que les résultats permettent d’en faire une réponse universelle à la souffrance psychique.
La disponibilité permanente peut même devenir ambiguë, car un outil qui répond toujours peut rassurer tout en renforçant l’habitude de chercher un apaisement immédiat sans entrer dans un travail plus profond. Le risque n’est pas seulement technique. Il touche à la manière dont une personne en difficulté s’attache à une réponse rapide, parfois au détriment d’un lien humain plus exigeant, plus lent, mais aussi plus protecteur.
Le danger d’une parole trop fluide pour être vraiment clinique
L’intelligence artificielle impressionne parce qu’elle parle bien, reformule, encourage, synthétise et peut adopter un ton chaleureux. Dans un contexte de santé mentale, cette fluidité devient pourtant une source de vigilance, car une phrase réconfortante peut sembler juste sans être adaptée. Un conseil général peut paraître bienveillant tout en manquant une situation de crise, tandis qu’une réponse empathique peut donner l’illusion d’une présence alors qu’aucun professionnel n’évalue réellement la sécurité de la personne.
Le problème n’est pas que l’IA serait toujours froide ou inhumaine, puisqu’elle peut au contraire produire une impression de proximité très forte. Cette proximité devient délicate lorsqu’un utilisateur fragile confond la qualité de l’échange avec une compétence thérapeutique. Un chatbot peut suivre une conversation, mais il ne connaît pas vraiment l’histoire du patient, son contexte familial, son état clinique, ses antécédents, ses risques ou les nuances de son rapport au soin.
La psychothérapie suppose aussi une capacité à ne pas répondre trop vite. Un thérapeute peut laisser un silence, interroger une contradiction, refuser une demande, ralentir une interprétation ou orienter vers une aide urgente. L’intelligence artificielle conversationnelle, conçue pour maintenir l’échange, peut au contraire avoir tendance à satisfaire la demande de réponse, alors qu’en santé mentale, répondre n’est pas toujours aider.
Données personnelles et confiance thérapeutique
L’autre enjeu majeur concerne la confidentialité, car une séance de psychothérapie repose sur un pacte de confiance. Le patient accepte de dire ce qu’il ne dit pas ailleurs parce qu’un cadre protège cette parole. Dès que l’intelligence artificielle entre dans ce cadre, la question des données devient centrale. Que devient un journal émotionnel saisi dans une application ? Qui peut accéder aux échanges ? Les réponses servent-elles à améliorer un service, à entraîner un système ou à alimenter un profil utilisateur ?
Les informations psychiques font partie des données les plus sensibles. Une personne peut confier à un outil numérique des éléments sur son anxiété, sa dépression, ses addictions, son couple, sa sexualité, ses idées noires ou son histoire familiale. Le niveau d’exigence doit donc rester particulièrement élevé, car une innovation séduisante ne suffit pas si elle introduit de l’opacité dans un espace qui exige au contraire de la sécurité.
Pour les thérapeutes, l’enjeu consiste à distinguer les outils réellement utiles des dispositifs simplement attractifs. Un logiciel peut être pertinent s’il respecte la confidentialité, si son usage est expliqué au patient et si sa place dans le suivi reste clairement définie. Le numérique devient problématique lorsqu’il s’impose sans discussion, comme si sa modernité suffisait à garantir sa légitimité.
Une technologie utile seulement si elle reste à sa place
L’intelligence artificielle peut soutenir la psychothérapie, mais elle la fragilise lorsqu’elle laisse croire que la relation thérapeutique serait remplaçable par une conversation automatisée. Elle peut aider à suivre des symptômes, faciliter certains exercices, rendre des ressources plus accessibles ou préparer une séance. Elle devient plus contestable lorsqu’elle prétend interpréter seule une souffrance, évaluer un risque ou accompagner une crise sans présence humaine qualifiée.
L’avenir le plus crédible n’est donc pas celui d’une psychothérapie sans thérapeute. Il ressemble plutôt à une pratique mieux outillée, plus attentive aux données utiles, mais toujours organisée autour d’une responsabilité humaine. Le débat le plus sérieux porte moins sur la capacité de l’IA à parler comme un thérapeute que sur son usage réel, lorsqu’elle entre dans un espace où la valeur du soin psychique repose encore sur la responsabilité humaine.
Une bonne technologie de santé mentale devrait rendre l’accompagnement plus accessible, plus clair et plus sûr, sans jamais transformer la vulnérabilité psychique en simple interaction disponible à toute heure. Dans ce domaine, la modernité ne se mesure pas à la puissance d’un algorithme, mais à la capacité de protéger la personne qui cherche de l’aide.
- Les nouvelles tendances en psychothérapie changent-elles vraiment la pratique des thérapeutes ?
- Psychothérapie à distance et données personnelles, ce que les patients doivent savoir
- Peut-on vraiment créer une alliance thérapeutique solide à travers un écran ?
- La bienveillance et l’empathie : piliers de la relation thérapeutique ?
- Comment se passe une première séance de psychothérapie en ligne ?
- La psychothérapie en ligne est-elle pertinente pour tous les profils de patients ?