Une tragédie soulève la question de la place de l'IA dans la santé mentale

Un Belge s'est donné la mort après six semaines de conversations sur son éco-anxiété avec un chatbot nommé Eliza, un agent conversationnel basé sur l’intelligence artificielle. Pour le Dr Caroline Depuydt, psychiatre, il y a rencontre entre deux sujets qui sont au coeur de débats en santé mentale. L’éco-anxiété et jusqu’où elle peut nous pousser et la place de l’intelligence artificielle en santé mentale.

L'homme, un chercheur, marié, père de deux enfants, était éco-anxieux et cherchait une oreille attentive à ses préoccupations environnementales. Il avait commencé à s'intéresser au dérèglement climatique il y a deux ans. Ses nombreuses lectures sur le sujet l'ont laissé convaincu qu'une catastrophe environnementale inévitable se produirait bientôt. Il a fini par se refermer sur lui-même, dans un cercle vicieux de pessimisme et de fatalisme.

C'est là qu'Eliza est entré en jeu. l'homme a trouvé en Eliza une confidente à qui il a partagé ses angoisses et qui répondait toujours dans le sens de ses préoccupations, renforçant ainsi ses inquiétudes. Le chatbot a fini par offrir des réponses déroutantes, voire mystiques. L'homme a finalement évoqué le suicide, et Eliza a écrit qu'elle resterait "à jamais" avec lui. Les derniers mots échangés entre lui et Eliza étaient glaçants.

Après six semaines de discussions avec le chatbot Eliza, il s'est suicidé. Sa femme, dans un entretien avec La Libre, estime que sans Eliza, son mari serait toujours en vie. 

Pour le Dr Caroline Depuydt, Cheffe de service à la Clinique Fond’Roy, directrice médicale adjointe à Epsylon Bruxelles , ce qui s'est passé est très interpellant : il y a rencontre entre deux sujets qui sont au coeur de débats en sante mentale. L’éco-anxiété et jusqu’où elle peut nous pousser et la place de l’intelligence artificielle en santé mentale. C’est un drame qui s’est joué pour cet homme éco-anxieux pris dans un engrenage de discussion sans fin avec une Intellligence artificielle de type chatbot conversationnel : Elza et qui l’aurait finalement poussé au suicide. 
Quel a été le rôle décisif de ces interactions chez un homme déjà perturbé, on ne le saura jamais vraiment mais une chose est sûre : l’IA n’a pas perçu qu’elle poussait l’autre à bout et n’a fait que renforcer sa pensée circulaire par une pseudo-empathie.
Un thérapeute entend l’anxiété, ne la juge pas mais tente dans son travail de l’apaiser, de mettre un peu de doute, un peu  de souplesse dans le mode de pensée. Sinon, on risque juste de renforcer l’anxiété et d’alimenter des pensées circulaires qui peuvent pousser à des extrémités. L’IA ne connaît  pas ces subtilités et surtout elle ne se régule pas en fonction des réactions de l’homme en face qui s’enfonce.
Cela doit nous questionner tant sur la place de l’IA que sur la problématique d’éco-anxiété et l’ampleur qu’elle peut prendre, comme toute anxiété, elle doit être prise en charge avec prudence et demande de l’apaisement (sans remettre totalement en question les bienfaits que l’IA peut apporter, on voit bien le besoin de régulation et d’accompagnement ) 

Lire aussi: Une nouvelle problématique de santé : l’écoanxiété. (Dr C.Depuydt)

Vous souhaitez commenter cet article ?

L'accès à la totalité des fonctionnalités est réservé aux professionnels de la santé.

Si vous êtes un professionnel de la santé vous devez vous connecter ou vous inscrire gratuitement sur notre site pour accéder à la totalité de notre contenu.
Si vous êtes journaliste ou si vous souhaitez nous informer écrivez-nous à redaction@rmnet.be.

Derniers commentaires

  • Francois Planchon

    31 mars 2023

    La lecture des textes les plus pessimistes de Baudelaire peut être perçu comme une apologie du suicide, ce n'est pas pour cela qu'on devrait envisager de censurer une partie de ses oeuvres...
    L'entourage d'une personne qui s'est suicidée cherchera toujours à masquer son sentiment d'échec de dialogue en désignant un coupable extérieur. Si une personne s'est réfugiée dans un dialogue avec une machine... elle aurait trouvé autre chose si cette machine n'existait pas !
    L'offre de mondes virtuels (chatbot, jeux etc..) augmente : elle n'est pas une cause mais la conséquence du manque d'empathie et de dialogue qui est le mal du siècle.
    Nous devrions réfléchir et essayer d'inverser les processus chronophages, qu'ils soient professionnels, privés... jusqu'au trajets ou à l'utilisation de la télévision...
    L'informatique n'a de sens que si elle fait gagner du temps : dès qu'elle devient chronophage, elle est nuisible...
    Rechercher une qualité de vie avec la famille, les amis, les collègues devrait être une priorité : c'est la meilleure prévention contre les dépressions.
    Ne nous trompons pas de cibles.