En quelques années seulement, l’intelligence artificielle – connue sous le nom d’IA – est passée d’un concept abstrait réservé presque exclusivement aux films de science-fiction à un outil que nous utilisons constamment. Il nous aide à rédiger des textes, à chercher des réponses, à traduire des langues, à planifier des voyages et à créer nos programmes de remise en forme parmi ce qui semble être une infinité d’autres utilisations. Mais cette révolution technologique pose une question : l’IA pourrait-elle changer, voire atrophier, le fonctionnement de notre cerveau ?

À mesure que nous déléguons de plus en plus de tâches cognitives aux algorithmes, il est logique de se demander si nous ne gênons pas l’exercice de compétences autrefois essentielles : mémoriser, déduire, prêter attention, écrire, calculer ou encore converser en face à face.

Et même si l’objectif n’est pas de diaboliser l’IA, les experts préviennent que son utilisation irréfléchie pourrait avoir des conséquences plus importantes qu’on ne l’imagine, notamment sur le développement cérébral ou chez les personnes émotionnellement vulnérables.

Ce nouvel outil pourrait-il avoir un impact véritablement dévastateur sur notre cerveau ? La réponse courte est non – du moins pas pour les adultes, et au sens le plus strict du terme. Mais cela peut modifier le fonctionnement du cerveau et, avec lui, altérer des processus fondamentaux tels que la mémoire, l’attention et la prise de décision.

Photo d'une belle femme souriante utilisant son téléphone portable tout en cuisinant des légumes dans la cuisine à la maison.© Getty Images
Nous utilisons de plus en plus l’IA pour des usages allant de l’écriture de textes à la fourniture de recettes

Comment l’IA modifie le fonctionnement cérébral : mémoire, attention et prise de décision

Professeur Ignacio Morgadoprofesseur émérite de psychobiologie à l’Institut de neurosciences de l’Université de Barcelone, explique : « L’intelligence artificielle fait fonctionner le cerveau d’une manière différente. Au lieu de stocker directement les informations, elle les stocke dans des ‘fichiers’ qui contiennent beaucoup plus d’informations que ce que le cerveau lui-même peut gérer. »

En d’autres termes, lorsque nous consultons constamment une IA pour obtenir des recettes, de l’aide à la rédaction ou des solutions à des problèmes, notre cerveau peut agir comme un chef d’orchestre qui appuie simplement sur un bouton au lieu d’interpréter réellement la musique. Même si cela libère un peu d’espace mental, cela pourrait éventuellement nous rendre dépendants et moins capables de penser par nous-mêmes.

L’impact de l’IA sur le développement du cerveau des adolescents

Cet effet devient particulièrement pertinent dans le cas des adolescents. « Le cerveau des adolescents est encore immature ; il est plus facile de tromper, d’influencer et de s’orienter dans des directions inappropriées, comme la violence », prévient Morgado. « La raison, qui protège de ces dangers, n’arrive à pleine maturité qu’à l’âge de 20 ans au moins, mais plus tôt chez les filles que chez les garçons. » C’est ainsi qu’une utilisation inappropriée de l’IA peut altérer le développement des adolescents.

les adolescents sur les téléphones portables© Getty Images
Le cerveau de l’adolescent est encore immature ; il est plus facile de tromper, d’influencer et d’orienter dans des directions inappropriées

Pourtant, le problème ne réside pas seulement dans l’accès anticipé, mais dans la manière dont les adolescents utilisent l’IA. Les mineurs peuvent se tourner vers ces outils pour faire leurs devoirs, résoudre des problèmes sociaux ou chercher des réponses émotionnelles qu’ils ne sont pas encore prêts à interpréter. « Le fait que les enfants utilisent l’IA dès leur plus jeune âge peut en effet nuire à leur développement », souligne l’expert.

L’IA peut-elle accélérer le déclin cognitif chez les personnes âgées ?

Chez les personnes âgées, l’impact semble être différent. « Le déclin cognitif peut en effet s’accélérer si le cerveau n’est pas exercé, mais pas en utilisant l’IA », souligne Morgado. En fait, l’intelligence artificielle pourrait avoir une certaine valeur thérapeutique si elle était utilisée de manière ciblée pour stimuler l’esprit, jouer, apprendre ou entraîner les capacités cognitives.

Cependant, deux choses s’appliquent toujours : le bon sens et l’information. « Nous devons être bien informés sur l’outil que nous utilisons. Comprendre, par exemple, que nous ne parlons pas à une personne ou à un professionnel, mais à une machine programmée avec des limites », rappelle Morgado.

En gros, si l’on sait comment utiliser l’intelligence artificielle, cela peut être bénéfique. Si nous en abusons ou ne l’utilisons pas correctement, cela pourrait finir par affecter notre cerveau. Une chose est cependant claire : « (l’IA) est là pour rester et conditionnera nos vies de nombreuses manières ; nous devons essayer de garantir que les effets soient positifs. »

femme oubliant les dates du calendrier© Getty Images
L’utilisation de l’IA peut modifier le fonctionnement du cerveau et altérer des processus fondamentaux tels que la mémoire, l’attention et la prise de décision.

Chatbots de santé mentale : quand les assistants IA deviennent-ils dangereux ?

L’un des domaines dans lesquels l’utilisation de l’intelligence artificielle s’est le plus développée est la santé mentale. Les chatbots conçus pour converser avec des personnes qui se sentent seules, anxieuses ou déprimées sont de plus en plus courants. Et bien que l’IA puisse être utile en complément du traitement, les experts en psychothérapie s’inquiètent de son utilisation non supervisée.

Selon une revue d’études réalisée par le Centre de Psychothérapie Itersia de Barcelone, l’accessibilité 24h/24 et 7j/7 des chatbots et leur capacité à simuler l’empathie font que de nombreux utilisateurs, notamment les jeunes ou les personnes émotionnellement fragiles, substituent les consultations psychologiques aux conversations avec des assistants virtuels.

« Echanger un thérapeute contre un chatbot peut conduire à tout, de l’absence d’une crise clinique à une dépendance émotionnelle sans réel soutien », prévient le psychologue. Elizabeth Sánchez. « Ces systèmes peuvent compléter, mais non remplacer, la supervision clinique humaine dans les interventions en santé mentale. »

jeune fille utilisant un chatbot sur un smartphone mobile© Getty Images
Les enfants et les adolescents peuvent se tourner vers l’IA pour faire leurs devoirs, résoudre des problèmes sociaux ou rechercher des réponses émotionnelles qu’ils ne sont pas encore prêts à interpréter.

La situation est particulièrement préoccupante dans les zones rurales ou dans les contextes où l’accès aux psychologues est limité. « Les patients souffrant de problèmes de santé émotionnelle ou mentale ont remplacé ce qu’on appelait autrefois les consultations ‘Dr Google’ par ‘Dr ChatGPT’ ou des outils similaires, où ils obtiennent une réponse en temps réel à tout moment de la journée », explique Sánchez. « Le besoin d’immédiateté de la société a entraîné le passage d’une véritable consultation psychologique aux assistants conversationnels.

Une étude publiée dans la revue JMIR Santé mentale conclut que même si les modèles d’IA peuvent être utiles en psychoéducation et en gestion émotionnelle de base, ils ne sont pas capables de détecter les signes avant-coureurs, de poser des diagnostics précis ou de véritablement sympathiser avec les patients. Leur « précision du diagnostic, leur compétence culturelle et leur capacité à impliquer émotionnellement les utilisateurs restent limitées », indique le rapport.

Les modèles d’IA ne sont pas capables de détecter les signes avant-coureurs de santé mentale, de poser des diagnostics psychologiques précis ou de véritablement sympathiser avec les patients.

5 risques critiques liés à l’utilisation de l’IA pour le soutien émotionnel et la thérapie

Les experts en santé mentale d’Itersia ont dressé une liste des principaux dangers associés à l’utilisation aveugle de l’IA et des chatbots par des personnes émotionnellement vulnérables :

  • Défaut de détection des crises : Les assistants IA ne sont pas préparés à identifier ou à intervenir dans des situations à risque telles que des pensées suicidaires, des violences ou des épisodes psychotiques.
  • Illusion de connexion émotionnelle: Le langage conversationnel peut créer la fausse sensation de parler à quelqu’un qui comprend vraiment, ce qui crée une relation artificielle sans soutien professionnel.
  • Conseil erroné : Ils peuvent proposer des réponses erronées, non fondées sur des preuves, voire dangereuses.
  • Manque de contexte clinique : Ils ne le font pas « comprendre » correctement les nuances personnelles, culturelles ou émotionnelles qu’un thérapeute humain peut interpréter.
  • Absence de contrôle éthique : Ils ne sont soumis à aucun code éthique ni à aucune supervision clinique, ce qui peut conduire à une utilisation irresponsable.
une thérapeute adulte mature écoute avec compassion la cliente méconnaissable partager ses problèmes.© Getty
Les chatbots ne sont pas interchangeables avec les vrais thérapeutes et psychiatres capables de poser un diagnostic compétent.

Une enquête récente auprès de patients souffrant d’anxiété sociale a révélé que ceux qui présentaient les symptômes les plus graves étaient précisément ceux qui faisaient le plus confiance aux chatbots, les considérant comme un refuge sûr contre les interactions humaines. Toutefois, cela peut renforcer l’évitement social et réduire la probabilité de rechercher une véritable aide professionnelle.

Auteur/autrice