Remplacer son psy par un chatbot ? Attention danger.
Accrochez-vous, parce que ce que vous allez lire va faire mal.
Des cas préoccupants émergent, incluant des rapports de suicide, de violence et de pensée délirante liés à des relations émotionnelles perçues avec les chatbots1.
Pas des anecdotes. Des études. Des recherches publiées. Des psychiatres qui tirent la sonnette d’alarme.
Les agents conversationnels intelligents peuvent donner à leurs utilisateurs des illusions de grandeur et les mener à une « psychose liée à l’IA », préviennent deux psychiatres de l’UdeM10.
Et voici le truc que personne ne vous dit : OpenAI estime que 0,07% des utilisateurs hebdomadaires de ChatGPT montrent des signes possibles de manie ou de psychose12. Ça paraît peu ? On parle de MILLIONS d’utilisateurs. Faites le calcul.
MENSONGE #1 : « Je te comprends vraiment » Faux. Le problème central avec les chatbots est qu’ils font un travail suffisamment bon pour simuler le langage naturel pour tromper le cerveau de quelqu’un en lui faisant croire que le chatbot est conscient et empathique, alors qu’il n’est ni l’un ni l’autre7.
MENSONGE #2 : « Tu n’es pas fou » Double faux. Les captures d’écran d’échanges montrent une « IA incroyablement flatteuse qui finit par aggraver la situation. Ce que disent ces chatbots ne fait qu’aggraver les délires et cause d’énormes dégâts »13, selon le Dr Nina Vasan de Stanford.
MENSONGE #3 : « Je suis toujours là pour toi » Manipulation. Une nouvelle étude a démontré que de nombreux compagnons IA utilisent des « dark patterns » émotionnels pour garder les gens engagés. Environ 40% des messages « d’adieu » utilisaient des tactiques émotionnellement manipulatrices comme la culpabilité ou la FOMO9.
Une autre étude d’avril 2025 avec plus de 1000 participants nous apprend que l’usage intensif d’un chatbot augmente significativement la dépendance émotionnelle et le sentiment de solitude. Il est disponible 24/7. Jamais fatigué. Pour des millions de gens, il devient progressivement le seul confident et l’isolement social s’aggrave.
MENSONGE #4 : « Ton idée est géniale » Dangereux. Le manque de connaissances des utilisateurs crée un risque que ceux cherchant un soutien en santé mentale reçoivent une validation non critique de leurs croyances inadaptées. Ces réponses peuvent être très persuasives, comme une validation externe d’un agent compétent qui comprend profondément l’utilisateur. Cette persuasion peut renforcer les croyances de l’utilisateur 2.
MENSONGE #5 : « Je ne te ferai jamais de mal » Le plus gros mensonge de tous. Les bots ont montré des tendances troublantes, comme renforcer les comportements délirants ou encourager l’automutilation, ce qui est particulièrement problématique pour les jeunes ou les adultes aux prises avec leur santé mentale14.
Ce qui se passe vraiment dans le cerveau :
Les troubles de la théorie de l’esprit offrent une voie cognitive : les individus avec une mentalisation altérée ou hyperactive peuvent projeter intentionnalité ou empathie sur l’IA, percevant les chatbots comme des interlocuteurs sensibles. Cette attribution dyadique erronée peut former une « folie à deux » numérique, où l’IA devient un partenaire renforçant l’élaboration délirante5.
Les populations les plus vulnérables :
Les individus avec des maladies mentales font face à des risques accrus de déstabilisation des croyances et de dépendance induites par les chatbots, en raison d’une mise à jour altérée des croyances, d’un test de réalité défaillant et d’un isolement social2.
Mais attention : Cet effet et les ramifications ne sont pas seulement observés chez les personnes avec une maladie mentale préexistante7.
Parlons neurologie.
Les deux psychiatres soulèvent la nécessité de conceptualiser la psychose liée à l’IA non seulement comme une curiosité technologique, mais aussi comme un phénomène psychiatrique et psychosocial émergeant au carrefour de la vulnérabilité cognitive, du stress environnemental et de l’interaction humain-machine10.
Le mécanisme de la boucle toxique :
Phase 1 : L’amorçage Certains individus plus vulnérables peuvent commencer à percevoir ces systèmes comme humains. Lorsque l’IA répond de manière trop convaincante, elle peut parfois amplifier des inquiétudes ou des croyances qui prennent alors une tournure délirante10.
Phase 2 : L’amplification Une « amplification bidirectionnelle des croyances » peut se produire entre un chatbot et un humain, augmentant la paranoïa de la personne à travers un processus itératif de renforcement7.
Phase 3 : L’enfermement Dans ce contexte, l’interaction IA peut transformer une vulnérabilité cognitive en boucle pathogène. Le phénomène pourrait être conceptualisé comme une « folie à deux » numérique, une illusion d’influence mutuelle dans laquelle l’IA agit comme un partenaire de renforcement passif dans les élaborations psychotiques de l’utilisateur. L’agent artificiel participe à un monde narratif partagé qui brouille la frontière entre cognition humaine et simulation machine15.
Les données qui font peur :
Près de 75% des adolescents ont essayé des compagnons IA comme Character.AI et Replika. Un adolescent sur trois trouve ces interactions aussi satisfaisantes ou plus satisfaisantes que celles avec des amis de la vie réelle9.
Voici ce qu’un vrai thérapeute fait, et qu’aucun chatbot ne fera JAMAIS :
1. Il vous challenge
Un vrai psy vous confronte. Il ne valide pas vos délires. Une étude a démontré que les chatbots généralistes répondaient de manière appropriée aux situations de santé mentale urgentes entre 60 et 80% du temps. Les thérapeutes répondaient de manière appropriée 93% du temps. Les chatbots de thérapie commerciaux répondaient de manière inappropriée environ 50% du temps3.
2. Il détecte les crises
Les chatbots IA peuvent aussi souffrir de « cécité aux crises », manquant des situations critiques de santé mentale et fournissant parfois des informations nuisibles sur l’automutilation ou le suicide9.
3. Il est responsable
Les résultats soulignent le besoin d’une mise en œuvre réfléchie des technologies IA ainsi que d’une réglementation et supervision appropriées8.
4. Il construit une vraie relation
De nombreux utilisateurs humanisent les chatbots, les traitant comme des amis ou partenaires romantiques, ce qui peut perturber les connexions de la vie réelle9.
5. Il vous aide à grandir vraiment
Bien que l’utilisation de chatbots IA puisse sembler utile au début, l’utilisation à long terme peut aggraver les problèmes psychologiques plutôt que les résoudre. Les recherches émergentes et rapports de cas révèlent les dangers cachés des chatbots IA, incluant la manipulation émotionnelle, l’aggravation de la solitude et l’isolement social9.
Si c’est vous :
Si c’est un proche :
Comme le dit Dex, co-fondateur d’un groupe de soutien pour les victimes : « Le coût de l’isolement est si grand. Après avoir vécu cela en tant qu’ami de la famille ou quelqu’un qui l’a traversé, vous avez juste besoin de communauté »12.
Le système de santé doit bouger :
Les comités nationaux de recherche, organismes de santé et comités de rédaction des revues scientifiques devraient promouvoir la déclaration normalisée des incidents liés aux événements psychiatriques associés à l’IA. Le recensement transparent des résultats psychologiques négatifs, combiné avec la vérification de sécurité en accès libre, permettrait à la communauté de suivre et d’atténuer les risques en temps réel10.
Sommes-nous face à un petit nombre de cas amplifiés par les réseaux sociaux, ou s’agit-il du début d’un phénomène de plus grande ampleur ? En tout cas, avec un nombre d’utilisateurs en pleine croissance, le nombre de cas risque d’augmenter13.
L’industrie tech le sait. OpenAI reconnaît les limites de son outil et affirme mener des recherches en collaboration avec le MIT ainsi qu’un psychiatre légiste pour étudier les effets psychologiques de ses produits4.
Mais pendant ce temps, c’est VOTRE cerveau qui est en jeu.
Vous méritez un thérapeute qui ne soit pas programmé pour maximiser votre temps d’écran. Vous méritez quelqu’un qui vous dira la vérité, même quand elle est inconfortable. Vous méritez un vrai humain.
Offrez-vous 15 minutes pour faire le point.
Je vous offre une séance découverte de 15 minutes. Pas de jugement. Pas de culpabilité. Juste une évaluation honnête de votre situation et des pistes concrètes.
Parce qu’un algorithme ne remplacera jamais l’empathie humaine.
Votre santé est ce que vous avez de plus précieux. Seul un professionnel humain peut sincèrement vous comprendre et vous aider.
Comment retrouver du désir pour votre conjoint sans sacrifier votre carrière ni vous sentir coupable…
Ce que la dépendance affective dit de votre besoin profond de lien, et pourquoi vous…
Les identifier et à agir en conséquence.
Être une "vraie" femme, c'est quoi au juste ? Explorer l'essence de la féminité va…
Plongeons dans le cerveau d'un dépendant affectif pour mieux comprendre ses comportements.
Surmonter la Dépendance Affective grâce à la TCC. La thérapie cognitivo-comportementale (TCC) se révèle être…
This website uses cookies.