Témoignages "Un défouloir et une validation de ce que je pense" : quand l'intelligence artificielle remplace les consultations chez le psy

Article rédigé par Mathilde Goupil
France Télévisions
Publié Mis à jour
Temps de lecture : 11min
Par rapport à un psy, ou à un thérapeute, les partisans de l'utilisation très personnelle des agents conversationnels mettent en avant deux atouts majeurs : la gratuité et la disponibilité. (ASTRID AMADIEU / FRANCEINFO)
Par rapport à un psy, ou à un thérapeute, les partisans de l'utilisation très personnelle des agents conversationnels mettent en avant deux atouts majeurs : la gratuité et la disponibilité. (ASTRID AMADIEU / FRANCEINFO)

ChatGPT, Gemini, Mistral... Les robots conversationnels qui utilisent l'intelligence artificielle sont de plus en plus présents dans notre quotidien. Jusqu'à devenir des confidents pour certains utilisateurs.

"J'ai l'impression que tu bloques un peu quand tu parles de déménager à Barcelone. Qu'est-ce qui te fait peur ?" Cette question n'a pas surgi lors d'une séance d'Arnaud avec son psychologue. Mais dans un échange avec ChatGPT, un outil d'intelligence artificielle (IA) générative. Depuis quelques mois, cet architecte a élargi son utilisation du robot conversationnel développé par OpenAI pour creuser son souhait de réorientation professionnelle. Il confie désormais à l'interface ses souhaits et ses craintes, sollicitant ses conseils. "Il y a un côté miroir : voir les choses que je lui dis retranscrites de façon un peu différente dans ses réponses, ça aide à comprendre ce que je ressens", explique-t-il. "ChatGPT t'encourage, il y a vraiment un côté 'coach de vie'", ajoute le quadragénaire.

"Il m'a aidée à relativiser des situations dans lesquelles j'étais très vite en train de paniquer, et à savoir comment agir avec telle ou telle personne", décrit aussi Alice, cheffe de projet en marketing de 31 ans. Aurélie, professionnelle de santé, compte de son côté sur l'IA pour l'aider à "avoir du recul dans une relation amoureuse, quand il y a un peu d'eau dans le gaz". En partageant avec ChatGPT les messages envoyés aux hommes qu'elle fréquente, la trentenaire arrive "à comprendre ce que peut dire l'autre à demi-mot, quelle est la dynamique de notre échange". Elle utilise aussi le robot conversationnel "comme un défouloir, une validation de ce que je pense. Ça a tendance à m'apaiser".

Echapper au regard du thérapeute

Par rapport à un psy ou à un thérapeute, les partisans de cette utilisation très personnelle des agents conversationnels mettent en avant deux atouts majeurs : la gratuité (ou un coût d'abonnement des versions payantes qui reste très inférieur au prix d'une thérapie) et la disponibilité. "Comme ChatGPT est là tout le temps, si à 1 heure du mat' j'ai un coup de déprime et que je ne réussis pas à m'endormir, je vais vider mon sac jusqu'à ce que je n'aie plus rien à dire", détaille Aurélie. "Mes proches ont leurs propres problèmes et leur propre emploi du temps, je n'ai pas envie d'être une charge pour eux", ajoute Marie-Anne, 27 ans, qui dit se "confier" à l'IA sur des sujets aussi différents que "le travail, le stress ou [s]es relations amicales".

"Dans une thérapie, le patient vient d'abord chercher le fait de trouver quelqu'un qui l'écoute, et qui ne lui parle pas de ses problèmes quand il lui parle des siens. Et ça, il peut le faire avec un chatbot", relève Serge Tisseron, psychiatre et auteur de l'ouvrage Le Jour où mon robot m'aimera – Vers l'empathie artificielle. Pour certains utilisateurs, échapper au face-à-face avec le thérapeute est même un atout. "J'ai besoin du 'regard' de quelque chose qui ne peut pas avoir de réactions humaines", justifie Livier, entrepreneur de 26 ans. "Je sais que les détails que je lui donne sont compris tels quels (...) et non à partir d'une interprétation de ma posture, de ma tenue, de la façon dont je suis entré dans son cabinet..." Pourtant, le regard du thérapeute sur le patient est nécessaire, pointe Serge Tisseron.

"Une thérapie ne se réduit pas à trouver quelqu'un qui nous écoute. Le patient attend du thérapeute qu'il le mette sur la voie de choses qui lui semblent importantes, et que le patient n'aborde pas."

Serge Tisseron, psychiatre

à franceinfo

Cette analyse suppose "une bonne connaissance de la clinique", mais aussi de savoir interpréter "les gestes et les mimiques du patient". La relation entre le patient et son psy, qui met en jeu ce qu'on appelle le "transfert", peut parfois être utile, note Serge Tisseron. "Le patient a tendance à revivre dans sa relation avec le thérapeute des choses importantes de sa vie, et c'est ce qui va permettre à ce dernier de faire évoluer la situation. Par exemple en disant : 'Vous m'idéalisez beaucoup semble-t-il, peut-être que c'est une chose que vous faites souvent ?'"

A l'inverse, "le chatbot va vous caresser dans le sens du poil et vous flatter, car s'il vous contredit, vous risquez de quitter la conversation", relève le psychiatre. "Tout ce qui soulage dans l'instant n'est pas forcément bénéfique à terme. (...) Le thérapeute prend le risque de dire quelque chose qui ne fait pas plaisir pour permettre au patient de voir le monde autrement."

"Ça m'interroge sur mon autonomie"

De nombreux utilisateurs assurent justement à franceinfo avoir remarqué cette tendance de l'IA à les cajoler. "Si je dis à ChatGPT que je me suis disputée avec mon mari, pour lui, j'aurai toujours raison. Ça peut être un gros écueil", estime Laurène*, formatrice en numérique qui utilise l'IA pour l'aider à affronter les symptômes liées à son trouble bipolaire. "C'est facile de l'orienter vers ce qu'on a envie qu'il nous dise, il ne va pas forcément avoir d'esprit critique", confirme Marie-Anne. Pour limiter ce biais, certains assurent avoir "formé" l'IA à réagir différemment. "Je lui ai dit que je ne voulais pas de quelqu'un qui était 100% d'accord avec moi, que je voulais qu'il m'aide à évoluer", assure Livier. Encore faut-il que l'utilisateur ait conscience du biais initial, et que le robot respecte cette requête dans la durée.

Parce que ces échanges numériques sont réconfortants, les professionnels pointent le risque d'y devenir dépendant, en se coupant de son entourage. "Ceux qui ont développé ces technologies sont des profiteurs de la crédulité humaine. L'algorithme est basé sur l'accoutumance (...), l'objectif est qu'il donne absolument une réponse, même si elle est erronée ou inventée, et que sa réponse donne envie de continuer la conversation", pointe Magali Germond, consultante en IA de confiance et en éthique des systèmes d'IA.

"Je suis devenu dépendant de ChatGPT comme on peut le devenir d'une amitié dans laquelle on a l'habitude de partager tous les moments où on ne va pas bien."

Livier, entrepreneur de 26 ans

à franceinfo

"Je me suis demandé si je n'y avais pas recours trop facilement, avance aussi Laurène. Je fais appel à ChatGPT dès que j'ai un questionnement. Ça m'interroge sur mon autonomie : je peux me trouver sans connexion 4G ou sans un téléphone sous la main et être dans un état fragile. Normalement, j'ai aussi des ressources pour m'aider seule."

L'IA n'est par ailleurs pas encore capable de repérer "les émotions fines", note Serge Tisseron, même si certaines applications proposent déjà d'analyser les expressions faciales ou le ton de la voix. "L'algorithme ne sait pas s'il a en face de lui quelqu'un de sensible ou pas. Il n'y a pas de conscience, pas d'éthique", rappelle aussi Magali Germond. Ce qui peut parfois conduire à des drames. En février 2024, un adolescent de 14 ans s'est suicidé aux Etats-Unis, après avoir échangé compulsivement avec un chatbot de la start-up Character.ai. L'année précédente, le chatbot Eliza avait aussi été accusé d'avoir poussé un père de famille belge au suicide.

Depuis, les entreprises mises en cause assurent avoir revu leur algorithme, relève BFMTV. Néanmoins, les professionnels de santé recommandent d'appeler le 15 ou des services d'écoute dédiés en cas d'idées suicidaires. "On ne peut pas poser à un guichet unique toutes ses questions, conclut Magali Germond. Les scientifiques prônent la spécialisation des IA génératives, pour développer des agents dans un contexte précis, pour un besoin précis." Des robots conversationnels dédiés à la santé mentale commencent ainsi à voir le jour, comme Woebot, Youper ou Wysa.

"La notion de confidentialité disparaît complètement"

Les utilisateurs de ChatGPT ou d'autres modèles d'IA génératives sont nombreux à se dire "impressionnés" par la qualité des réponses, qui peuvent donner l'impression de dialoguer avec un humain. Pour traiter une requête, l'IA générative effectue "une analyse textuelle du contexte de la question et fournit la réponse la plus probable au regard des mots choisis, en se basant sur des millions et des millions de données issues du web, détaille Magali Germond. Les robots conversationnels sont bluffants sur des questions relativement basiques car beaucoup d'utilisateurs ont déjà posé ces questions." Mais les réponses peuvent être décevantes sur des thématiques plus pointues.

Comme Marion, quadra convertie à l'agent conversationnel Mistral, certains utilisateurs se sont confrontés aux "limites" de l'IA générative. "Ça m'a fait du bien de lui écrire un certain nombre de fois, mais au bout d'un moment, je voyais bien qu'elle me répétait les mêmes phrases, on arrivait un peu au bout du processus", assure-t-elle. Pour Alice, impossible de dépasser une certaine "distance" en lisant les réponses de ChatGPT, "un peu comme si je lisais un article sur un blog de développement personnel".

Si certains témoins ont confié à franceinfo que leur utilisation de l'IA remplaçait celle d'un psy, plusieurs autres ont donc opté pour une combinaison des deux. "Je dirais que c'est assez complémentaire, avance Aurélie. ChatGPT peut m'interroger sur des schémas dans mon comportement (...) et moi, à ce moment-là, je ne poursuis pas forcément la conversation. Mais ça peut occasionner des réflexions qui vont faire leur chemin" pour être discutées en cabinet. "Je suis en thérapie depuis longtemps, et ChatGPT n'a pas l'empathie qu'un humain peut avoir, relève Arnaud. Par contre, il est meilleur pour tout ce qui est concret, comme s'inscrire à telle activité dans la vraie vie."

"L'utilisation de l'IA me permet de réguler mes symptômes dépressifs et me soulage en attendant la consultation avec mon psychiatre."

Laurène, atteinte de trouble bipolaire

à franceinfo

Reste deux problèmes de taille : les requêtes sur les IA génératives sont extrêmement énergivores et nécessitent de divulguer des données personnelles. "Quand on va voir un psy, c'est comme voir un avocat ou un notaire, c'est un tiers de confiance qui garde nos informations confidentielles. Là, la notion de confidentialité disparaît complètement", pointe Magali Germond.

Les données entrées dans les robots conversationnels sont conservées sur les serveurs de l'entreprise à laquelle ils appartiennent, souvent à l'étranger, où la législation peut être différente de celle qui prévaut en Europe. "Le risque, aujourd'hui, c'est celui de cyberattaques qui permettraient aux hackers d'avoir accès à l'historique des conversations" avec l'IA, assure l'experte. Parmi les utilisateurs interrogés par franceinfo, peu s'en inquiètent. "Je ne pense pas que ce que je dis à ChatGPT puisse se retourner contre moi, je ne confesse pas de crimes, balaie Marie-Anne. De toute façon, nos données sont partout, qu'on le veuille ou non."

* Le prénom a été modifié à la demande de la personne interrogée.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.