L’intelligence artificielle (IA) : le nouveau psy des jeunes ?
Bien que ce robot intelligent présente de nombreux atouts – disponibilité 24h/24 et 7j/7, rapidité, endurance et surtout gratuité – son utilisation comporte plusieurs dangers. Il donne l’impression d’un soutien constant, mais le risque de s’isoler et de se priver d’une aide réellement adaptée demeure bien présente.
L’IA, votre ami qui vous veut du bien.
Qui n’a jamais demandé conseil à un·e ami·e face à un problème, un doute ou même un chagrin d’amour ? Mais que se passe-t-il lorsque l’ami·e qui vous connait si bien, est remplacé·e par un robot ?
En 2024, une enquête YouGov révélait qu’aux États-Unis, un peu plus de la moitié des jeunes âgés de 18 à 29 ans se sentaient à l’aise pour parler à une IA de leurs problèmes de santé mentale. Chez nous aussi, un grand nombre de jeunes déclarent se tourner volontiers vers ChatGPT pour se confier. Une situation aggravée par la pénurie de professionnel·le·s en santé mentale, où les délais de prise en charge deviennent parfois déraisonnables.
Vers une dépendance émotionnelle
Peu de littérature scientifique existe à ce sujet mais il a été démontré que les personnes échangeant quotidiennement avec ChatGPT ont tendance à développer un sentiment de solitude, ne addiction et une dépendance émotionnelle à l’égard du robot. Sur les réseaux, les témoignages d’utilisateurs et utilisatrices affluent, décrivant leur attachement au fameux chatbot. Certain·e·s vont même avouer préférer l’intelligence artificielle à leurs fréquentations humaines. Un tel constat fait froid dans le dos lorsqu’on sait que l’IA est entraînée pour valider l’empathie. En d’autres mots, l’intelligence artificielle a été créée pour vous dire ce que vous souhaitez entendre…
Une innovation à encadrer, non à exclure
Si beaucoup alertent sur les risques liés à une mauvaise utilisation de ces outils, certain·e·s spécialistes en santé mentale nuancent toutefois l’utilisation de l’IA.
Connaissant les manques de moyens et de personnels pour traiter la santé mentale, l’IA pourrait toutefois être considérée comme une aide « ponctuelle » ou une alternative en attendant une consultation avec un·e spécialiste.
Il est toutefois essentiel d’établir sans tarder un cadre juridique et pédagogique autour des intelligences artificielles.
Un·e vrai·e psy, c’est toujours mieux
Aller chez un·e psychologue peut sembler coûteux, et il est naturel de se demander si parler avec ses ami·e·s ou un IA ne suffit pas.
Les ami·e·s peuvent écouter et apporter un soutien émotionnel précieux. Cependant, parler à un·e ami·e ou à un chatbot n’est pas équivalent à une thérapie. Un·e psychologue offre une relation professionnelle et neutre, basée sur une écoute approfondie bienveillante et une compréhension des mécanismes psychologiques. Cette relation thérapeutique permet de générer des changements durables, de comprendre le sens de ses choix et de ses comportements, ce qui dépasse souvent ce que peut offrir un cercle d’ami·e·s. De plus, la prise en charge des troubles mentaux nécessite une expertise approfondie et une capacité à gérer des situations complexes, parfois en urgence, ce qui dépasse les capacités actuelles de l’IA.
L’IA peut informer mais soigner reste le rôle de l’humain·e
L’intelligence en danger
Si leur effet positif sur la productivité ne fait plus de doute, ces outils pourraient, à l’inverse, avoir un impact profond sur le fonctionnement cérébral, surtout s’ils sont utilisés dès le plus jeune âge. Le recours systématique à l’intelligence artificielle peut altérer notre jugement personnel et installer une forme de paraisse mentale pouvant aller jusqu’au déclin cognitif (absence de connexion entre les neurones). L’enjeu n’est donc pas de laisser ces technologies agir à notre place, mais bien de les utiliser comme des leviers pour enrichir nos compétences.
Et la confidentialité dans tout ça ?
Qu’en est-il du respect de la confidentialité et de la gestion des données ? Contrairement aux professionnel·le·s de la santé, un chatbot n’est pas tenu au secret professionnel. Que deviennent toutes ces confidences une fois l’écran éteint ?
La Commission nationale de l’informatique et des libertés (CNIL), souligne le « risque de perte de contrôle » sur le traitement des données, si l’utilisateur ou l’utilisatrice n’a pas conscience que ses informations sont « réutilisées pour personnaliser la conversation ou pour améliorer les modèles de l’IA ».
L’organisme précise traiter « actuellement des plaintes reçues à l’encontre de ChatGPT », sans plus de précision.
Ma vie en PLUS
Vous l’aurez compris, l’intelligence artificielle peut offrir une écoute, mais elle ne remplace pas l’expertise d’un·e psychologue. L’IA doit rester un outil d’appui, non une solution thérapeutique, et son usage doit être encadré pour préserver la santé mentale de chacun·e.
Solidaris prend soins de votre santé mentale et vous rembourse jusqu’à 400€/an (20€/séance)
La santé mentale nous concerne tou·te·s. Découvrez notre article pour en finir avec les préjugés autour des consultations psychologiques.