En quelques années seulement, l’intelligence artificielle – connue sous le nom d’IA – est passée d’un concept abstrait réservé presque exclusivement aux films de science-fiction à un outil que nous utilisons constamment. Il nous aide à rédiger des textes, à chercher des réponses, à traduire des langues, à planifier des voyages et à créer nos programmes de remise en forme parmi ce qui semble être une infinité d’autres utilisations. Mais cette révolution technologique pose une question : l’IA pourrait-elle changer, voire atrophier, le fonctionnement de notre cerveau ?
À mesure que nous déléguons de plus en plus de tâches cognitives aux algorithmes, il est logique de se demander si nous ne gênons pas l’exercice de compétences autrefois essentielles : mémoriser, déduire, prêter attention, écrire, calculer ou encore converser en face à face.
Et même si l’objectif n’est pas de diaboliser l’IA, les experts préviennent que son utilisation irréfléchie pourrait avoir des conséquences plus importantes qu’on ne l’imagine, notamment sur le développement cérébral ou chez les personnes émotionnellement vulnérables.
Ce nouvel outil pourrait-il avoir un impact véritablement dévastateur sur notre cerveau ? La réponse courte est non – du moins pas pour les adultes, et au sens le plus strict du terme. Mais cela peut modifier le fonctionnement du cerveau et, avec lui, altérer des processus fondamentaux tels que la mémoire, l’attention et la prise de décision.
Comment l’IA modifie le fonctionnement cérébral : mémoire, attention et prise de décision
Professeur Ignacio Morgadoprofesseur émérite de psychobiologie à l’Institut de neurosciences de l’Université de Barcelone, explique : « L’intelligence artificielle fait fonctionner le cerveau d’une manière différente. Au lieu de stocker directement les informations, elle les stocke dans des ‘fichiers’ qui contiennent beaucoup plus d’informations que ce que le cerveau lui-même peut gérer. »
En d’autres termes, lorsque nous consultons constamment une IA pour obtenir des recettes, de l’aide à la rédaction ou des solutions à des problèmes, notre cerveau peut agir comme un chef d’orchestre qui appuie simplement sur un bouton au lieu d’interpréter réellement la musique. Même si cela libère un peu d’espace mental, cela pourrait éventuellement nous rendre dépendants et moins capables de penser par nous-mêmes.
L’impact de l’IA sur le développement du cerveau des adolescents
Cet effet devient particulièrement pertinent dans le cas des adolescents. « Le cerveau des adolescents est encore immature ; il est plus facile de tromper, d’influencer et de s’orienter dans des directions inappropriées, comme la violence », prévient Morgado. « La raison, qui protège de ces dangers, n’arrive à pleine maturité qu’à l’âge de 20 ans au moins, mais plus tôt chez les filles que chez les garçons. » C’est ainsi qu’une utilisation inappropriée de l’IA peut altérer le développement des adolescents.
Pourtant, le problème ne réside pas seulement dans l’accès anticipé, mais dans la manière dont les adolescents utilisent l’IA. Les mineurs peuvent se tourner vers ces outils pour faire leurs devoirs, résoudre des problèmes sociaux ou chercher des réponses émotionnelles qu’ils ne sont pas encore prêts à interpréter. « Le fait que les enfants utilisent l’IA dès leur plus jeune âge peut en effet nuire à leur développement », souligne l’expert.
L’IA peut-elle accélérer le déclin cognitif chez les personnes âgées ?
Chez les personnes âgées, l’impact semble être différent. « Le déclin cognitif peut en effet s’accélérer si le cerveau n’est pas exercé, mais pas en utilisant l’IA », souligne Morgado. En fait, l’intelligence artificielle pourrait avoir une certaine valeur thérapeutique si elle était utilisée de manière ciblée pour stimuler l’esprit, jouer, apprendre ou entraîner les capacités cognitives.
Cependant, deux choses s’appliquent toujours : le bon sens et l’information. « Nous devons être bien informés sur l’outil que nous utilisons. Comprendre, par exemple, que nous ne parlons pas à une personne ou à un professionnel, mais à une machine programmée avec des limites », rappelle Morgado.
En gros, si l’on sait comment utiliser l’intelligence artificielle, cela peut être bénéfique. Si nous en abusons ou ne l’utilisons pas correctement, cela pourrait finir par affecter notre cerveau. Une chose est cependant claire : « (l’IA) est là pour rester et conditionnera nos vies de nombreuses manières ; nous devons essayer de garantir que les effets soient positifs. »
Chatbots de santé mentale : quand les assistants IA deviennent-ils dangereux ?
L’un des domaines dans lesquels l’utilisation de l’intelligence artificielle s’est le plus développée est la santé mentale. Les chatbots conçus pour converser avec des personnes qui se sentent seules, anxieuses ou déprimées sont de plus en plus courants. Et bien que l’IA puisse être utile en complément du traitement, les experts en psychothérapie s’inquiètent de son utilisation non supervisée.
Selon une revue d’études réalisée par le Centre de Psychothérapie Itersia de Barcelone, l’accessibilité 24h/24 et 7j/7 des chatbots et leur capacité à simuler l’empathie font que de nombreux utilisateurs, notamment les jeunes ou les personnes émotionnellement fragiles, substituent les consultations psychologiques aux conversations avec des assistants virtuels.
« Echanger un thérapeute contre un chatbot peut conduire à tout, de l’absence d’une crise clinique à une dépendance émotionnelle sans réel soutien », prévient le psychologue. Elizabeth Sánchez. « Ces systèmes peuvent compléter, mais non remplacer, la supervision clinique humaine dans les interventions en santé mentale. »
La situation est particulièrement préoccupante dans les zones rurales ou dans les contextes où l’accès aux psychologues est limité. « Les patients souffrant de problèmes de santé émotionnelle ou mentale ont remplacé ce qu’on appelait autrefois les consultations ‘Dr Google’ par ‘Dr ChatGPT’ ou des outils similaires, où ils obtiennent une réponse en temps réel à tout moment de la journée », explique Sánchez. « Le besoin d’immédiateté de la société a entraîné le passage d’une véritable consultation psychologique aux assistants conversationnels.
Une étude publiée dans la revue JMIR Santé mentale conclut que même si les modèles d’IA peuvent être utiles en psychoéducation et en gestion émotionnelle de base, ils ne sont pas capables de détecter les signes avant-coureurs, de poser des diagnostics précis ou de véritablement sympathiser avec les patients. Leur « précision du diagnostic, leur compétence culturelle et leur capacité à impliquer émotionnellement les utilisateurs restent limitées », indique le rapport.
Les modèles d’IA ne sont pas capables de détecter les signes avant-coureurs de santé mentale, de poser des diagnostics psychologiques précis ou de véritablement sympathiser avec les patients.
5 risques critiques liés à l’utilisation de l’IA pour le soutien émotionnel et la thérapie
Les experts en santé mentale d’Itersia ont dressé une liste des principaux dangers associés à l’utilisation aveugle de l’IA et des chatbots par des personnes émotionnellement vulnérables :
- Défaut de détection des crises : Les assistants IA ne sont pas préparés à identifier ou à intervenir dans des situations à risque telles que des pensées suicidaires, des violences ou des épisodes psychotiques.
- Illusion de connexion émotionnelle: Le langage conversationnel peut créer la fausse sensation de parler à quelqu’un qui comprend vraiment, ce qui crée une relation artificielle sans soutien professionnel.
- Conseil erroné : Ils peuvent proposer des réponses erronées, non fondées sur des preuves, voire dangereuses.
- Manque de contexte clinique : Ils ne le font pas « comprendre » correctement les nuances personnelles, culturelles ou émotionnelles qu’un thérapeute humain peut interpréter.
- Absence de contrôle éthique : Ils ne sont soumis à aucun code éthique ni à aucune supervision clinique, ce qui peut conduire à une utilisation irresponsable.
Une enquête récente auprès de patients souffrant d’anxiété sociale a révélé que ceux qui présentaient les symptômes les plus graves étaient précisément ceux qui faisaient le plus confiance aux chatbots, les considérant comme un refuge sûr contre les interactions humaines. Toutefois, cela peut renforcer l’évitement social et réduire la probabilité de rechercher une véritable aide professionnelle.





