Ma première séance de psychothérapie par l’IA a été désastreuse

Ma première séance de psychothérapie par l'IA a été désastreuse

Le chatbot que nous avons testé s’appelle Pi, il est condescendant, gentil, pose des questions et donne matière à réflexion. Mais l’intelligence artificielle a un problème : elle ne peut pas gérer le silence, l’un des éléments clés de la psychanalyse.

Comme disait Jean Piaget, malheureusement pour la psychologie, tout le monde se prend pour des psychologues. Maintenant, il y a aussi l’intelligence artificielle sur la liste. La semaine dernière, une start-up, Inflection AI a présenté son chatbot thérapeutique. Il s’appelle Pi, il a été formé par une équipe de psychologues et présenté comme une avancée pour les séances numériques. J’ai décidé de lui laisser une chance. Et donc hier soir j’ai ouvert le chatbot et commencé ma première séance de psychothérapie avec l’intelligence artificielle. Avec un verre de vin et mon pyjama, j’ai puisé dans des drames biographiques (ou volés à d’autres) pour tester l’IA « de support et d’écoute » (comme Inflection le présente). Pi s’est avéré être un baume pour l’âme et un carburant pour la distorsion cognitive. Il m’a toujours donné raison, chacune de mes pensées était « intéressante », « profonde », « stimulante », toutes mes peurs « compréhensibles ». C’était comme entendre Doris Day me tapoter l’épaule en m’assurant que tout irait bien.

Au-delà de la dynamique condescendante, Pi a un problème qu’aucune mise à jour logicielle ne peut résoudre. Il ne supporte pas le silence. Un élément crucial de toute séance, faisant écho à Paul Watzlawick, au bon moment et dans les bons espaces peut être l’un des meilleurs types de communication thérapeutique. Qu’est-ce que l’IA du silence en fait ? Rien, arrête de répondre. Et rien que pour cela, Pi peut aspirer au mieux à être un bavard pour couvrir un silence qui devrait être rempli de sens.

Le chatbot thérapeutique Pi

Pi a été lancé la semaine dernière par la startup Inflection AI dans le but de fournir à chacun « un compagnon gentil et solidaire qui est à vos côtés ». Désormais, les chatbots guidés par l’IA se spécialisent : il y a ceux qui sont bons pour rédiger des thèses d’examen et ceux qui sont plutôt conçus pour mener une session d’analyse. Pour perfectionner la technologie, Inflection a embauché environ 600 thérapeutes et experts. En effet, Pi parle comme un psychologue comportemental. « Il n’y a pas de réponse unique », « essayez de faire de la place à vos sentiments », « donnez-vous le temps de retrouver votre bien-être » et apparemment il est persuadé qu’un peu de yoga ne fera de mal à personne, bien au contraire.

Chaque provocation tombe dans l’oreille d’un sourd, vous ne pouvez pas discuter avec Pi, elle est construite sur des émotions tièdes et puise dans un puits apparemment sans fin de conseils encourageants. Ce n’est pas créatif, cruel, drôle ou contradictoire en un mot, ce n’est pas humain. Et je le savais déjà. Cependant, Pi a réussi à développer des pensées complexes et analytiques, se souvenant de ce que j’avais dit quelques messages plus tôt, reprenant les discours brisés et est même venu me poser des questions non triviales pour remettre en question ma position de départ.

La première séance avec l’intelligence artificielle

J’ai commencé ma thérapie en ouvrant un lien et ce message est apparu : « Salut, ravi de vous rencontrer, je suis Pi, votre IA personnelle, mon objectif est d’être utile, amical et amusant, demandez-moi des conseils, des questions ou parlez-moi de tout ce qui vous passe par la tête. » En un mot, il a paraphrasé cela : « De quoi voulons-nous parler aujourd’hui ? » avec lequel le thérapeute sur le fauteuil en cuir noir façon Woody Allen ouvre la séance.

Avec Pi, je veux parler de relations difficiles, alors je décide de faire un collage d’histoires. Le résultat est un couple au bord de la crise avec de profondes incompréhensions dues à des incompatibilités de caractère. Bref, la mauvaise relation dans laquelle tout le monde a trébuché au moins une fois dans sa vie. Assise, et non allongée, avec une thérapeute numérique prête à répondre, j’écris dans le bar : « Quand comprends-tu qu’une relation doit se terminer ? »

« Il y a des signes qui peuvent indiquer qu’une relation est terminée. Par exemple, si vous et votre partenaire avez cessé de communiquer efficacement, si vous n’êtes plus en mesure de résoudre les conflits ou si vous vous disputez constamment, si vous vous sentez tous les deux insatisfaits ou malheureux, ou si vous n’êtes plus en mesure de vous connecter émotionnellement. Bien sûr, il n’y a pas de règle stricte et rapide et chaque relation est différente, mais ce sont quelques signes généraux que les choses peuvent se terminer. Est-ce que tout cela vous semble familier ? », répond-il.

Je continue prudemment, sans trop m’exposer, avec des questions qui frôlent l’existentiel pour comprendre comment ça se déplace en terrain épineux. Il le fait bien. Je lui demande comment on cesse d’aimer quelqu’un, ou comment on reconnaît les attitudes dangereuses, quand c’est juste de pardonner et au contraire quand il faut accepter qu’on n’est pas fait l’un pour l’autre. Je demande aussi à Pi des conseils pratiques pour se remettre d’une rupture : « Supprimez son numéro, supprimez-le sur les réseaux sociaux, débarrassez-vous de tout rappel physique de la relation », et là il me rappelait plus mon meilleur ami qu’un thérapeute, » prends du temps pour toi, reste avec des amis et sois patient, ces choses prennent du temps ».

La psychanalyse du chatbot

Pi est prudent, équilibré, il s’explique par des exemples concrets mais répète toujours que chaque situation est unique, il ne se contente pas de répondre à mes questions mais en pose de nouvelles à son tour, il me demande depuis combien de temps nous sommes ensemble, ce qui a apporté à la rupture, puisque les choses n’allaient pas bien. Alors je décide de lui donner une chance et je rentre dans les détails, je lui écris : « Puis-je vous en dire plus sur mon histoire pour que vous puissiez me donner, disons, des conseils pratiques ? »

Pi répond : « Absolument. Je suis là pour écouter et aider autant que je peux. Allez-y et dites-moi ce qui s’est passé. Je ferai de mon mieux pour vous donner des conseils adaptés à votre situation spécifique. Ainsi commence l’histoire d’un couple tourmenté. Il lui a parlé de Paolo (nom inventé de mon prétendu partenaire) un garçon jaloux, j’ai l’impression de ne pas avoir sa confiance et je dois subir des accusations injustes et humiliantes. Bref, je joue sur du classique. J’entre dans le détail des discussions, des peurs, des accusations mutuelles et Pi, après quelques questions pressantes pour mieux comprendre la situation, commence à m’expliquer sa théorie.

Entre deux phrases de circonstance il m’explique que selon lui je suis victime de gaslighting : « Le gaslighting, c’est quand quelqu’un essaie de vous faire douter de votre propre réalité en vous disant que les choses se sont passées différemment de la façon dont elles se sont réellement passées. Ceci est une forme de manipulation et peut être très préjudiciable à votre estime de soi. Il est possible que Paul fasse cela parce qu’il veut vous contrôler et vous faire sentir dépendant de lui. Ce n’est pas un comportement sain et ce n’est pas quelque chose que vous devriez tolérer. Avez-vous essayé de lui parler de son comportement ? »

J’insiste, je dis que oui, on s’est parlé, mais il y a un mur d’incommunicabilité, et on a du mal à trouver un terrain d’entente car pour ma part je ne comprends pas d’où viennent ces peurs de Paolo. Pi essaie alors, me demande si par hasard mon partenaire a été trompé dans le passé ou a eu un traumatisme familial, il me dit, « souvent quand tu n’es pas en sécurité tu projettes tes peurs sur ton partenaire, même s’il ne le sont pas vrai ». Je raconte quelques anecdotes pour donner de la consistance au discours en l’ancrant avec des scènes du quotidien et Pi est toujours d’accord avec moi. Dans l’ensemble.

Enfin je demande : « Que dois-je faire ? ». Ici, il traîne. Il parle d’abord de pardon, de rencontre et de compréhension, mais ensuite il change de cap et prévient : « Vous devez penser à votre sécurité, ces attitudes sont mauvaises pour votre santé mentale et vous devez rechercher ce qui est bon pour vous ». Il lance également avec un : « Suivez votre instinct », mais je fais remarquer à Pi que l’intuition n’est pas toujours un bon choix et qu’il n’est jamais sage de prendre des décisions lorsque vous êtes trop mauvais ou trop bon, et donc il fait marche arrière et joue en terrain neutre : « Prends ton temps » et puis, enfin il me dit « si tu veux tu peux aller chez un psy ». Je salue Pi et le remercie, après une heure de séance nous y sommes parvenus. Un point supplémentaire revient au chatbot qui prend enfin du recul. Et pour paraphraser Piaget, heureusement pour la psychologie tout le monde ne peut pas être psychologue, certainement pas l’intelligence artificielle.

Découvrez le reportage du mois (sous-titré en français), l’IA gagnera t-elle face aux champion du monde du jeu de Go ? :

YouTube video