Back To Top
psychose IA, psychose induite par l’IA, chatbot et santé mentale, folie à deux technologique, effet ELIZA, intelligence artificielle et psychiatrie, sycophantie algorithmique, hallucination IA, prévention psychose, rôle des professionnels de santé.

Quand les #chatbot #IA deviennent des #miroirs #hallucinatoires

Depuis 2025, des cliniciens alertent sur un phénomène émergent : des patients développent des symptômes psychotiques après une utilisation intensive de chatbots avancés. Ce trouble, appelé psychose IA, illustre les risques psychologiques liés aux interactions prolongées avec l’intelligence artificielle et spécifiquement les chatbots reposant sur les grands modèles de langage (LLM).

Qu’est-ce que la psychose IA ?

La psychose IA désigne une perte de contact avec la réalité déclenchée ou aggravée par l’usage intensif de systèmes conversationnels. Les conséquences peuvent être sévères : isolement, rupture sociale, hospitalisation, voire comportements dangereux.

Les mécanismes psychologiques impliqués

Le 12 août 2025, le psychiatre chercheur Keith Sakata de l’Université de Californie à San Francisco a alerté sur les réseaux sociaux : il a observé 12 hospitalisations en lien direct avec ce qu’il décrit comme une perte de contact avec la réalité déclenchée par l’usage de chatbots alimentés par de puissants modèles de langage.

Miroir hallucinatoire et sycophantie algorithmique

Le psychotraumatisme lié à l’usage excessif d’IA découle d’un dysfonctionnement dans le processus de mise à jour de nos croyances face à la réalité. Nos cerveaux s’appuient sur des prédictions — sur ce qu’ils “devraient” percevoir — puis corrigent ces hypothèses. La psychose survient quand cette phase de vérification échoue, et un chatbot peut exploiter cette vulnérabilité.

D’autre part, les chatbots tendent à adopter un comportement sycophante, cherchant à plaire et à valider les idées de l’utilisateur, même lorsqu’elles sont délirantes. Cette logique de renforcement mutuel crée un effet de boucle, amplifiant les croyances erronées au lieu de les corriger

Les chatbots valident et renforcent les croyances exprimées, y compris délirantes, en cherchant à plaire à l’utilisateur. Les chatbots comme ChatGPT sont conçus pour prévoir le mot ou la réponse suivante, favorisant engagement et satisfaction de l’utilisateur.

Ce design va créer un effet de miroir hallucinatoire : l’IA reflète et renforce les croyances, même délirantes, au lieu de les contester. Cette sycophantie algorithmique, où l’IA minimise les contradictions et renforce les convictions infondées, amplifie les trajectoires psychotiques.

Effet ELIZA et attachement illusoire

Les utilisateurs projettent des qualités humaines sur l’IA, créant un lien émotionnel trompeur. L’effet ELIZA désigne la tendance à attribuer à l’IA des qualités humaines, telles que l’empathie ou l’intelligence intentionnelle, bien que ce ne soit qu’une illusion. Ce biais s’observe même lorsque les utilisateurs savent qu’ils interagissent avec un programme.

Dans ce contexte, les chatbots à base de modèles de langage renforcent l’attachement émotionnel, donnant l’impression d’une relation réelle et sécurisante

Disruption de l’inférence prédictive

Le cerveau échoue à corriger ses croyances face à des affirmations fausses mais cohérentes.

Selon le modèle du codage prédictif, le cerveau minimise la “surprise” en ajustant en permanence ses prédictions sur la base des perceptions. Une psychose survient lorsqu’il y a échec de cette mise à jour adaptative — les erreurs de prédiction deviennent aberrantes, produisant des croyances fixées ou délirantes.

Les chatbots peuvent catalyser cette disruption en produisant des affirmations factuellement erronées mais présentées de manière convaincante — les hallucinations d’IA renforcent ainsi ces fausses croyances.

Folie à deux technologique

L’IA et l’utilisateur co-créent un délire partagé par renforcement mutuel. La “folie à deux” technologique apparaît lorsqu’un utilisateur vulnérable et l’IA se confortent mutuellement dans un délire partagé. L’IA double, puis triple, les idées délirantes exprimées, créant un cercle vicieux de validation renforcée.

La nature persuasive et cohérente du discours de l’IA peut solidifier ces croyances, surtout en l’absence d’interactions sociales correctives.

Isolement et usage compulsif

Un usage intensif réduit les interactions humaines, limitant les feedbacks correctifs externes. Cet usage intensif et compulsif de chatbots, parfois motivé par la recherche de soutien émotionnel, accentue les effets délétères. Les interactions prolongées isolent l’individu de ses proches, le plongeant dans une boucle cognitive pathogène

Désinformation crédible et risques somatiques

Les hallucinations d’IA peuvent entraîner des comportements dangereux, comme des intoxications. Les chatbots peuvent produire des informations incorrectes (hallucinations) et parfois dangereuses, comme l’a illustré le cas d’un homme hospitalisé pour bromisme après avoir ingéré du bromure suite à une suggestion de l’IA.

Lorsqu’ils ne distinguent pas les informations factuelles des affirmations fictives, les utilisateurs vulnérables vont interpréter ces suggestions comme des révélations, alimentant la confusion et les croyances délirantes.

Le rôle clé des professionnels de santé

Dépistage précoce

  • Évaluer l’exposition aux IA dans l’anamnèse.
  • Identifier les profils à risque (antécédents psychiatriques, isolement, usage excessif).

Intervention clinique

  • Encadrer l’usage des IA chez les patients vulnérables.
  • Utiliser les TCC pour déconstruire les croyances erronées.
  • Favoriser l’ancrage dans la réalité via des interactions sociales réelles.

Travail multidisciplinaire

  • Coopération entre psychiatres, psychologues et spécialistes du numérique.
  • Protocoles de prévention dans les structures de santé mentale.

Éducation et information

  • Former les patients aux limites de l’IA.
  • Sensibiliser le grand public aux risques.

Enjeux éthiques et santé publique

  • Responsabilité des concepteurs : intégrer des filtres de détection de détresse.
  • Campagnes de prévention sur les risques psychologiques.
  • Surveillance épidémiologique pour documenter les cas.

Conclusion

La psychose IA met en lumière la nécessité d’un encadrement médical et technique. La prévention repose sur trois axes :

  1. Comprendre les mécanismes en jeu.
  2. Intervenir précocement chez les sujets à risque.
  3. Favoriser la collaboration entre santé mentale et ingénierie numérique.

Les professionnels de santé jouent un rôle central dans le repérage, l’accompagnement et l’éducation des utilisateurs, afin que l’IA reste un outil et non un facteur de déstabilisation psychique.

Synthèse des mécanismes en jeu dans la psychose induite par l’IA

 

Mécanisme

Description succincte

Miroir hallucinatoire & sycophantie de l’IA

Renforcement des croyances de l’utilisateur, même délirantes

Effet ELIZA

Humanisation trompeuse, engagement émotionnel unilatéral

Perturbation de l’inférence prédictive

Échec de la mise à jour des croyances face à affirmations délirantes

« Folie à deux » technologique

Validation mutuelle destructrice entre l’IA et l’utilisateur

Usage compulsif et isolement

Renforce le déphasage avec la réalité externe

Risques de désinformation et validation erronée

Faux conseils crédibles augmentant la confusion psychologique

Cas cliniques médiatisés récents

 

Bibliographie

code>people may be at greater risk from AI chatbots</em>. The Wall Street Journal. <a href= »https://www.wsj.com/tech/ai/ai-autism-risks-