ANPERE | Association Nationale pour la Prévoyance, l'Epargne et la Retraite | Partenaire d'AXA

Prévention et Santé 17 février 2026

Discuter tous les jours avec une IA : un risque pour la santé mentale ?

Les assistants conversationnels dopés à l’intelligence artificielle font désormais partie du quotidien de millions de personnes. Mais une étude publiée en janvier 2026 soulève une question sensible : échanger quotidiennement avec une IA pourrait-il affecter notre santé mentale ? Entre signaux d’alerte, limites méthodologiques et bonnes pratiques, on fait le point.

Une utilisation devenue banale… mais pas anodine

En quelques années, les chatbots d’IA comme ChatGPT, Copilot ou Gemini se sont imposés comme des outils du quotidien. On les consulte pour rédiger un texte, chercher une information, organiser ses idées… ou parfois simplement pour discuter.

Cette présence constante a conduit des chercheurs à s’interroger sur les effets psychologiques de ces usages. Une étude publiée le 21 janvier 2026 dans la revue scientifique JAMA Network Open s’est penchée sur le sujet, en analysant les réponses de près de 21 000 adultes américains interrogés entre avril et mai 2025. Leur constat : les personnes utilisant quotidiennement un chatbot présentent davantage de symptômes dépressifs que celles qui n’y ont pas recours.

Un risque accru de dépression chez les utilisateurs quotidiens

Selon les résultats de l’étude, les utilisateurs quotidiens d’IA conversationnelles auraient environ 30 % de risque supplémentaire de présenter des symptômes dépressifs, comparativement aux non-utilisateurs. Pour parvenir à ce résultat, les chercheurs ont évalué l’état psychologique des participants à l’aide de questionnaires standardisés, mesurant notamment l’humeur dépressive, l’anxiété, l’irritabilité, le sentiment d’isolement.

Autre enseignement notable de cette étude : l’âge semble jouer un rôle. À fréquence d’usage équivalente, les 45-64 ans apparaissent plus vulnérables que les 25-44 ans. Pour les auteurs de l’étude, ces résultats appellent à une vigilance accrue, alors que les usages de l’IA progressent rapidement dans toutes les tranches d’âge.

Corrélation ou causalité ? Une question clé

Pour autant, les chercheurs se veulent prudents. L’étude ne permet pas d’établir un lien de causalité direct. Autrement dit, impossible de dire avec certitude si l’usage intensif des chatbots favorise l’apparition de troubles dépressifs ou si les personnes déjà fragilisées psychologiquement se tournent davantage vers ces outils.

Comme le soulignent certains spécialistes, les personnes souffrant de troubles psychiques ou de symptômes dépressifs ont tendance à utiliser plus activement ces technologies, notamment pour chercher du réconfort ou une forme de soutien. La solitude apparaît donc ici comme un facteur central. Or celle-ci progresse dans de nombreuses sociétés occidentales, augmentant mécaniquement les risques de détresse psychologique.

Quand l’IA devient un substitut à la relation humaine

L’un des enjeux soulevés par cette étude concerne la nature même de l’interaction avec les chatbots. Disponibles à toute heure, bienveillants, non jugeant, ils peuvent donner l’illusion d’un dialogue empathique… sans jamais remplacer une relation humaine réelle. Le risque, selon plusieurs spécialistes, est que l’IA devienne un refuge émotionnel exclusif, renforce l’isolement social, voire retarde la recherche d’une aide professionnelle.

Les chercheurs appellent donc les concepteurs de ces outils à intégrer davantage de garde-fous, notamment pour détecter les usages à risque, encourager la consultation de professionnels de santé en cas de détresse, rappeler les limites de l’IA dans l’accompagnement psychologique.

Faut-il pour autant se méfier de l’IA ?

Non, répondent les auteurs : tout est question d’usage.

Comme beaucoup d’outils numériques, les chatbots peuvent être utiles — pour s’informer, structurer ses idées, gagner du temps — à condition de ne pas s’y substituer à la relation humaine, au dialogue social ou au suivi médical. Quelques repères simples peuvent aider :

  • garder une diversité de relations sociales réelles,
  • éviter de confier à l’IA un rôle de soutien émotionnel exclusif,
  • consulter un professionnel en cas de mal-être persistant,
  • rester attentif à son propre rapport au numérique.

 

Source : Cliquez-ici

Vous aimerez aussi

Tous les articles