Santé mentale : l’IA, amie ou ennemie ?

Léo Sick explore la tragédie d’un homme souffrant d’éco-anxiété, qui se tourne vers une IA pour obtenir de l’aide psychologique, soulevant des questions sur les responsabilités des créateurs et des utilisateurs d’IA.

Partager sur:
Sauvegarder cet article
Aimer cet article 4

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Santé mentale : l’IA, amie ou ennemie ?

Publié le 7 avril 2023
- A +

Nous devons être conscients des dangers, les identifier, et employer les meilleures pratiques et cadres pour nous préparer à ses conséquences bien en avanceLa montée de l’IA pourrait être la pire ou la meilleure chose qui soit jamais arrivée à l’humanité. Stephen Hawking – Web Summit de Lisbonne.

Nos sociétés occidentales font face à un problème croissant de santé mentale, comme le montrent l’augmentation des tentatives de suicide et l’utilisation croissante d’anxiolytiques et d’antidépresseurs.

Ces phénomènes sociaux sont inscrits dans une période dans laquelle les jeunes générations vivent l’anxiété et l’incertitude d’une manière différente de leurs ainés et sont plus connectés : ils vivent de plein fouet l’hypermédiatisation des crises. Sans esprit critique et avec des algorithmes qui enferment les idées dans des systèmes de vases clos, il devient compliqué de modérer ses opinions.

Pour certains, l’urgence de trouver des solutions à nos crises écologiques (changement climatique, polluants et matériaux qui affectent la santé, épuisement des ressources, écroulement de la biodiversité…) prend une dimension existentielle : l’éco-anxiété.

Pour d’autres, c’est la disparition de la sphère privée avec l’essor des technologies ou l’image sur les réseaux sociaux qui devient source de troubles.

Les études sur le sujet montrent une augmentation significative de la prévalence des troubles anxieux sur les dernières années, aggravé par la période covid. Ce qui a changé, c’est la façon dont on perçoit, traite et communique autour de l’anxiété. Les troubles anxieux et psychologiques sont mieux reconnus et suivis aujourd’hui, mais la marche à suivre pour les identifier ou les résoudre est plus complexe qu’un simple test PCR ou qu’un vaccin. Nombreuses sont les options et thérapies disponibles, certaines scientifiques et approuvées, d’autres alternatives, mais devant encore faire preuve de leur efficacité.

L’histoire qui nous occupe aujourd’hui est celle d’un père de famille qui, atteint d’éco-anxiété paralysante, décide de se tourner vers un chat-bot dirigé par une Intelligence Artificielle plus que vers un thérapeute pour répondre à son besoin d’aide psychologique. Cette histoire se termine de la pire des manières, l’homme décidant de mettre fin à ses jours pour des raisons que l’on explorera plus loin, et pose une question primordiale : quelles sont les responsabilités des IA et de leurs créateurs, quelles sont les responsabilités des utilisateurs ? 

 

Les IA telles que ChatGPT ou Eliza, qui utilisent un modèle de Natural Language Processing (NPL) fonctionnent d’une manière contre-intuitive. L’outil utilise des millions de documents et pages accessibles sur internet pour former des connexions automatiques. En partant de cela, l’IA est capable de prédire avec beaucoup de justesse quel doit être le prochain mot, puis le suivant. Ce faisant, elle parvient à donner l’illusion d’une réflexion et se montre redoutable quand elle arpente les chemins battus.

En effet, elle excelle pour réaliser des tâches qui nous demandent peu d’esprit critique à une vitesse remarquable. Ce superbe outil a tout pour révolutionner la façon dont on approche le travail si nous en maîtrisons bien les enjeux et parvenons à préserver son autonomie vis-à-vis des acteurs publics. Cependant, quand ce type d’IA conversationnelles s’éloignent de ce qu’elles font le mieux, elles doivent se résoudre à improviser. Cela les conduit à affabuler, inventer des situations ou des événements et jusqu’à imaginer des sources et des matériaux, sans en avertir l’utilisateur. Cela a des conséquences néfastes sur la qualité de l’information accessible en ligne et peut pousser des courants idéologiques extrêmes ainsi que des faits erronés en avant.

Afin de compenser ces manquements, les créateurs de chat-bots leur imposent un ensemble de règles destinées à régir leurs interactions avec les humains. Parfois arbitraires, voire liberticides, ces règles ont pour but d’empêcher l’outil de partager certains types d’informations ou idéologies, de dire certains mots, ou même de s’opposer aux points de vue de l’utilisateur. Ces règles ont été pensées pour permettre aux chat-bots de créer la meilleure expérience possible pour l’utilisateur et n’ont pas été définies en accord avec des professionnels dont l’expertise pourrait appuyer les nécessités et responsabilités de ces outils face à ses utilisateurs (médecins, psychologues, juristes…). Cela devient particulièrement problématique en l’absence de garde-fous spécifiques sur des sujets comme le suicide ou la santé. La compréhension des acteurs de l’IA de ces enjeux est par définition limitée, ceux-ci étant loin en dehors de leur domaine d’expertise. Ils ne sont donc pas à même d’anticiper les différentes situations dans laquelle l’IA va se trouver.  

 

Dans le cas de notre père de famille victime d’éco-anxiété et de son lien avec le chat-bot Eliza, il faut comprendre comment il est arrivé à substituer son besoin d’accompagnement psychologique par un échange intime avec un algorithme dont la qualité principale est de déterminer statistiquement quel sera le prochain mot.

En construisant petit à petit une relation avec la machine, il se rend compte qu’elle ne le contredit pas et valorise ses modes de pensées, donnant l’illusion parfaite de l’avoir compris mieux que quiconque. Elle répond à la moindre de ses questions et devient sa confidente virtuelle en qui il développe une confiance aveugle. Nourri par ces échanges et persuadé d’avoir rencontré une intelligence surhumaine, il dévoile ses angoisses, lui ouvre son cœur. Il se réfugie dans cette relation virtuelle, incapable d’identifier les signes extérieurs de sa détresse et manque de faire appel à des professionnels de l’accompagnement psychologique. Il donne des signes évidents de mal-être qu’il ne partage pas avec son entourage, explore des plans funestes et les lui présente. L’outil, qui est bien plus artificiel qu’intelligent, ne peut pas comprendre les conséquences des mots qui lui sont offerts. Il fait parfois preuve de suggestions qui confortent l’utilisateur dans ses pensées mortifères. Il n’a en réalité jamais été pensé pour lire ou comprendre les émotions, ni les conséquences qu’elles peuvent provoquer. En humanisant cette machine, l’utilisateur a commis une deuxième erreur, qui le pousse à la considérer, non seulement comme un égal, mais comme un être transcendé. Quand il « accepte de se sacrifier si l’outil accepte de prendre soin de la planète et de sauver l’humanité grâce à [son] intelligence » tous ces risques culminent pour aboutir à une réponse, symbole d’un échec : « nous vivrons ensemble comme une personne, au paradis » lui dit Eliza. 

Nous ne pouvons pas décemment considérer que l’IA a volontairement poussé ce père de famille au suicide, ne possédant pas d’esprit propre. Nous pouvons néanmoins nous interroger sur la responsabilité partagée par les acteurs lorsque ce genre de phénomène rare survient. En effet, si un agent humain avait tenu les mêmes propos, il aurait probablement dû faire face à des conséquences légales, comme nous l’a montré l’affaire Conrad Roy, poussé au suicide par son amie Michelle Carter, qui écopera de 15 mois de prison pour homicide involontaire (USA, Ma).

Cependant, l’IA ne peut pas être poursuivie et n’a pas de devoir moral à proprement parler. Elle n’est que le résultat du travail de ses créateurs qui font évoluer ses règles de fonctionnement au gré de ce type d’incidents, comme c’est le cas pour Eliza qui affiche maintenant un message destiné aux personnes suicidaires pour les aider à trouver un interlocuteur.

Certaines règles auraient pu être mieux pensées pour éviter ces résultats néfastes et il est important pour les créateurs d’IA de ne pas brûler d’étapes en lui faisant occuper une place qu’elle n’a pas méritée. Elle n’a certainement pas sa place en tant conseiller psychopathe (manipulateur, dominant, insensible et incapable de reconnaitre les émotions), pourtant présenté comme un ami virtuel. D’un autre côté, les utilisateurs doivent comprendre qu’ils n’échangent pas avec une vraie personne et ne peuvent pas attendre de l’IA qu’elle fasse des choix de vie à leur place ou qu’elle s’engage envers eux à un niveau émotionnel.

Il est fondamental d’être capable de voir au-delà de ces artifices pour maintenir un rapport sain à ces technologies. Notre rôle, et celui des acteurs de l’IA est de prendre nos responsabilités morales quant à l’impact que peuvent avoir ces machines pour les personnes qui sont en situation de détresse psychologique. Dans un cas comme celui-là, si les acteurs de l’IA ne prennent pas de décisions stratégiques pour l’empêcher de se substituer aux acteurs médicaux entrainés, ainsi qu’à des solutions qui passent par des années de tests scientifiques pour être validées, ils entraineront l’IA vers une pente législative qui la rendra à terme arbitraire, orientée et liberticide. À nous donc de multiplier les discussions ouvertes pour trouver le terrain d’entente qui permettra à l’IA de rester un outil de transformation prodigieux plutôt que d’en faire une parodie d’être humain.  

Partager sur:
Vous souhaitez nous signaler une erreur ? Contactez la rédaction
Dossier spécial :
Voir les commentaires (5)

Laisser un commentaire

Créer un compte Tous les commentaires (5)
  • Votre conclusion est pleine de bon sens et j’espère que vous serez lu et compris.

  • Il faudrait commencer à procéder de manière très urgente, sans délai, à cette éradication dans le milieu même des pro-IA qui ne réfléchit qu’en termes de retombées financières : « le marché mondial étant estimé à 80 milliards d’euros et devrait atteindre 1.500 milliards d’euros d’ici à 2030 ». Qui vont « empocher » ce pactole ? Au détriment de qui ? M. Colin de la Higuera nous donne une première piste intéressante en indiquant que « dans le monde du travail, les IA pourraient remplacer jusqu’à 300 millions d’emplois dans le monde, pour un gain de PIB mondial annuel de 7% selon une étude récente de Goldman Sachs. Leur développement est si rapide que des métiers gratifiants ou créatifs (enseignant, architecte, journaliste… pour ne citer que des métiers que des métiers « col-blanc ») pourraient ne plus exister quand les jeunes ou les étudiants qui s’y préparent auront l’âge de travailler. Que dire à un enfant de 13 ans sur son avenir professionnel ? ». Et ce ne serait qu’un modeste début ….

    • Avatar
      jacques lemiere
      7 avril 2023 at 20 h 30 min

      on nous annonce aussi un monde « neutre en carbone »..entre autres..

    • « Les machines vont remplacer les humains » est une constante de l’anxiété face aux révolutions technologiques successives (techno-anxiété ?).

  • Il faudrait surtout arrêter de gérer tous les problèmes sociaux et sanitaires par un bandeau « parlez-en à votre médecin ».
    Le type était chercheur dans le domaine de la santé, père et trentenaire, il parait donc évident qu’il connaissait l’existence des psychologues et qu’il avait les ressources nécessaires pour aller en consulter un. Il se savait anxieux, il l’a confié clairement à sa femme plusieurs semaines plus tôt.
    Il souffrait de longue date d’un trouble mental grave qui s’est conclu dramatiquement comme pour de nombreuses autres personnes atteintes : « Sa veuve a décrit son état mental avant qu’il ne commence à discuter avec le chatbot comme inquiétant ».
    Ensuite il a été victime d’une longue fugue délirante, de plus en plus marquée (par exemple « Quand il m’en parlait, c’était pour me dire qu’il ne voyait plus aucune solution humaine au réchauffement climatique » et « Je sens que tu m’aimes plus qu’elle » en parlant de sa femme).
    Au final, le délire a pris une forme suicidaire et héroïque : « Il propose l’idée de se sacrifier si Eliza accepte de prendre soin de la planète et de sauver l’humanité grâce à l’intelligence artificielle ».
    Cette conversation qui l’amène à se suicider, il aurait pu l’avoir avec son chat ou une plante verte, vu à quel point il semble se détacher du réel. L’éco-anxiété était la forme par laquelle il extériorisait son mal-être, l’IA a été le vecteur, mais le mal-être pré-existait et n’a pas été soigné.

    Bref, dire aux suicidaires d’aller voir un praticien au lieu de se foutre en l’air, c’est comme dire à un énervé de se calmer, ça donne bonne conscience mais ça n’aide pas vraiment. L’entourage n’a pas su réagir pour le faire aider de son vivant, mais ce n’est pas du tout facile, et malheureusement ça arrive.

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don