L’usage excessif de l’IA nuit‑il à notre cerveau ? L’alerte d’un scientifique et les preuves qui inquiètent
La montée en puissance des chatbots conversationnels — ChatGPT, Claude, Gemini et consorts — a bouleversé nos façons de travailler, d’apprendre et de communiquer. Mais si l’IA promet un gain de productivité, elle soulève aussi une question cruciale : son usage répété et systématique risque‑t‑il d’éroder nos capacités cognitives ? L’astronome d’Harvard Avi Loeb a lancé un avertissement frontal sur son blog, observant chez son entourage un « déclin cognitif » lié à l’utilisation intensive des chatbots. Au‑delà de l’anecdote, plusieurs travaux et constats sociétaux viennent crédibiliser un phénomène qu’il vaut mieux ne pas ignorer.
Les observations d’Avi Loeb : quand l’IA remplace l’effort mental
Le propos d’Avi Loeb n’est pas une dénonciation technophobe gratuite : il part d’observations concrètes dans son milieu. Selon lui, la facilité avec laquelle des réponses structurées et argumentées sont désormais accessibles conduit certaines personnes à déléguer des tâches de réflexion et d’analyse. Loeb compare l’effet à l’atrophie musculaire : sans sollicitation, une capacité se dégrade. Poussant la métaphore loin, il affirme que, dans certains contextes académiques, l’évaluation fiable des compétences passe désormais par des conditions extrêmes — une « cage de Faraday » — pour empêcher toute consultation externe. C’est l’image d’un contexte où l’outil est devenu une béquille permanente.
Des résultats empiriques qui confirment des risques
Loeb n’est pas isolé. Des chercheurs ont commencé à documenter ce que certains appellent déjà le « coût cognitif » de l’IA. Une étude conduite en 2025 par le chercheur Michael Gerlich en Suisse a montré que l’usage régulier d’outils d’assistance automatique peut diminuer les performances dans des tâches de pensée critique et de résolution de problèmes lorsque l’utilisateur doit ensuite réaliser la tâche sans assistance. Autrement dit : s’appuyer trop souvent sur un assistant numérique réduit l’habileté à penser par soi‑même.
Un phénomène amplifié chez les jeunes et les populations vulnérables
Les enquêtes sociologiques montrent que l’adoption des chatbots est particulièrement marquée chez les adolescents et les étudiants. Le Pew Research Center rapporte que de nombreux élèves recourent à l’IA pour faire leurs devoirs. Ce constat est d’autant plus préoccupant que l’usage massif serait plus fréquent parmi les élèves issus de milieux modestes — précisément ceux pour qui l’école devrait être un levier d’émancipation. Si l’IA devient la solution de facilité pour des publics qui manquent déjà d’accès à des ressources éducatives de qualité, le résultat pourrait être une aggravation des inégalités cognitives.
Quels mécanismes expliquent ce déclin potentiel ?
Quels risques pour l’éducation et le marché du travail ?
Sur le plan éducatif, le danger est double : d’un côté, la tricherie augmente si l’IA est utilisée pour tout produire à la place de l’élève ; de l’autre, l’apprentissage profond — celui qui forge la capacité à résoudre des problèmes nouveaux — est fragilisé. Au travail, des compétences essentielles comme la créativité, la pensée critique et la prise de décision risquent d’être dévalorisées au profit d’une aptitude à piloter des outils. À terme, la cohabitation entre humains et IA sur le lieu de travail exige une redéfinition des savoir‑faire valorisés.
Peut‑on concilier IA et entraînement cognitif ?
Oui, mais cela suppose des choix pédagogiques et des bonnes pratiques d’usage. L’IA doit être employée comme un outil d’appoint, pas comme un substitut systématique. Quelques pistes :
Régulation, responsabilité et devoirs des acteurs
La question dépasse l’individu : elle concerne aussi les concepteurs d’IA et les politiques publiques. Les fournisseurs d’outils pourraient intégrer des fonctionnalités favorisant l’apprentissage (par exemple, proposer des pistes plutôt que des réponses prêtes à l’emploi), tandis que les autorités éducatives devront adapter les curricula et les méthodes d’évaluation. Enfin, la recherche a un rôle central : il faut multiplier les études longitudinales pour mesurer l’impact réel de ces technologies sur les capacités cognitives à long terme.
Points à surveiller
Le débat est lancé et nécessaire : il ne s’agit pas d’opposer technologie et raison, mais de définir un cadre d’utilisation qui permet à l’IA d’augmenter l’intelligence humaine sans la remplacer. Si la métaphore de l’atrophie est parlante, elle doit nous pousser à repenser la manière dont nous intégrons ces outils dans nos routines cognitives — pour que l’IA reste un levier, et non une béquille durable.
