L’intelligence artificielle promet d’augmenter nos capacités mais que se passe-t-il lorsque cette promesse se retourne contre nous ? Les signaux d’alerte se multiplient entre illusion de compétence, atrophie de la pensée critique et dépendance cognitive mais faut-il pour autant céder au fatalisme ou choisir de faire de cette transition cognitive une opportunité ?
En bref :
- L’usage croissant de l’IA comme partenaire cognitif peut affaiblir la pensée critique, en favorisant une délégation excessive des efforts intellectuels et en réduisant notre capacité à questionner et raisonner de manière autonome.
- Les effets de l’IA sur les capacités cognitives varient selon les contextes et les populations, certains y trouvant un soutien utile, tandis que d’autres développent une dépendance préjudiciable à leur développement intellectuel.
- Les environnements éducatifs, professionnels et managériaux jouent un rôle déterminant : ils peuvent soit renforcer la dégradation cognitive en valorisant la conformité et la rapidité, soit favoriser l’usage exigeant et stimulant de l’IA.
- Le design même des outils d’IA, orienté vers la fluidité et l’adhésion, renforce des biais cognitifs en simplifiant la pensée, en supprimant le doute et en renforçant une forme de complaisance intellectuelle.
- L’enjeu n’est pas de rejeter l’IA mais de l’intégrer de manière critique, en en faisant un levier de développement cognitif à travers un usage conscient, exigeant et soutenu par des cadres éducatifs et organisationnels adaptés.
Il n’y a pas d’assistance sans conséquences
L’IA est en train de devenir bien plus qu’un outil et elle s’installe comme partenaire cognitif. Elle cherche, trie, résume, reformule, anticipe parfois même nos intentions mais ce qui est technologiquement remarquable n’est pas sans effet sur notre manière de penser. En effet, pourquoi fournir un effort si la réponse vient toute seule ?
L’effet Google, documenté dès 2011 par Columbia University, montrait déjà que nous retenions moins les informations disponibles en ligne (Google Effects on Memory: Cognitive Consequences of Having Information at Our Fingertips). Notre mémoire ne s’érode toutefois pas d’elle-même mais elle s’adapte oui plutôt, elle délègue et cette délégation s’est aujourd’hui élargie à d’autres dimensions de la pensée. Avec l’IA générative, ce n’est plus seulement notre mémoire qui est assistée, mais l’ensemble de notre chaîne de raisonnement. Nous obtenons en effet des réponses structurées, convaincantes, souvent crédibles maison connait on le prix ?
Ce confort cognitif apparent produit ce que des chercheurs qualifient de désapprentissage diffus. Moins nous cherchons, moins nous comprenons. Moins nous confrontons les idées, plus nous glissons vers une pensée réflexe. Le faire-savoir prend le pas sur le savoir-faire et sans friction intellectuelle il n’y a pas de construction durable de la pensée et de la connaissance.
Il ne faut toutefois pas accuser l’outil trop vite. L’IA ne fait en effet qu’exposer les faiblesses déjà présentes dans nos systèmes éducatifs, professionnels et managériaux. Quand on ne valorise plus la réflexion mais la conformité, quand l’exigence de rapidité a déjà appauvri la qualité des débats, l’IA ne fait qu’amplifier un phénomène existant et nous cessons de réfléchir c’est peut-être que nos organisations n’attendent plus cela de nous.
De la promesse d’augmentation à l’atrophie ?
Une étude qualitative menée par la Lund University indique que les étudiants ayant des difficultés attentionnelles ou exécutives perçoivent les outils comme ChatGPT comme utiles pour accomplir leurs tâches académiques. Mais cette assistance, jugée précieuse sur le court terme, pourrait entraîner une dépendance cognitive qui freine le développement de leurs capacités de réflexion autonome (Students with attention struggles find AI tools like ChatGPT helpful). D’autres travaux, comme une analyse publiée dans la revue Societies en 2024, établissent une corrélation forte entre usage fréquent de l’IA et affaiblissement des compétences cognitives, en particulier chez les jeunes adultes (AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking). On perd ainsi l’habitude de douter, de décomposer une situation, de construire ou reconstituer un raisonnement.
Une publication du Center for Strategic Corporate Foresight and Sustainability à la SBS Swiss Business School met en évidence une corrélation négative significative entre usage fréquent d’IA, externalisation cognitive et baisse des compétences de pensée critique, en particulier chez les jeunes adultes (The effects of over-reliance on AI dialogue systems on students’ cognitive abilities: a systematic review). Même si cette étude mérite encore d’être consolidée, elle conforte les signaux faibles relevés ailleurs.
Mais tous les signaux ne sont pas rouges. Une autre étude de chercheurs de l’Université du Texas à Austin et de la Baylor University montre que chez les personnes âgées, l’usage régulier d’internet peut réduire de 58 % le risque de déficience cognitive (Does using digital technology lower or raise dementia risk? et Using tech in later life may protect against cognitive decline, study suggests), un bénéfice qui dépasse même celui d’activités classiquement reconnues comme protectrices : sport, alimentation équilibrée, jeux de logique. Mais ici on parle du numérique en général, pas de l’IA et de sa nature particulière.
Ce constat invite aussi à interroger les environnements dans lesquels l’IA est introduite. En effet, dans les entreprises comme dans les établissements scolaires, le niveau de conscience de ses effets cognitifs reste faible. Le niveau de conscience des effets cognitifs reste étonnamment faible. L’IA est presque toujours présentée comme un levier de productivité, rarement comme un outil capable de renforcer nos capacités mentales. Peu de discours ou de pratiques en font un partenaire d’entraînement intellectuel or, selon la manière dont on l’utilise, l’IA peut soit court-circuiter la pensée, soit la solliciter, l’enrichir, la complexifier. Ce n’est pas une machine à réfléchir à notre place, c’est un environnement dans lequel notre propre intelligence peut régresser ou se muscler.
On peut alors se demander si le vrai défi n’était pas de préserver l’intelligence humaine malgré l’IA, mais au contraire de la réintégrer dans les logiques de travail ? Beaucoup d’environnements, entreprises, écoles, administrations, ont déjà cessé de restreindre la place de l’intelligence humaine à coup d’injonctions paradoxales, de surcharge cognitive ou de pression sur le temps. L’IA ne remplace donc pas notre intelligence mais elle s’engouffre dans le vide que nous avons laissé. La priorité n’est donc pas de lutter contre l’outil, mais de restaurer un design du travail et de l’organisation qui nécessite l’intelligence.
Je vous renvoie à ce sujet et à titre d’exemple sur la série d’articles que j’ai écris sur la gouvernance et la gouvernance augmentée qui sont une bonne illustration de ce sujet.
La pensée critique à l’épreuve des algorithmes
Ce qui inquiète peut-être le plus, ce n’est pas tant la perte de mémoire que la disparition du doute. Poser une question est déjà une manière de penser. Cela suppose une intention, une formulation, un effort de clarification mais, quand la réponse surgit avant même que la question ne soit vraiment formulée, c’est tout ce processus intellectuel qui s’interrompt. L’IA anticipe, complète, propose, parfois à juste titre, mais souvent trop tôt et n’est pas seulement la recherche de la réponse qui disparaît, c’est la construction de la question elle-même.
Les modèles d’IA sont conçus pour être fluides, engageants, acceptables. Leur design vise à minimiser la friction, à maximiser l’adhésion et c’est ce qui les rend puissants mais aussi problématiques : ils renforcent des logiques de complaisance cognitive. On ne nous pousse pas à penser, on nous donne l’illusion que tout a déjà été pensé pour nous. Pire : les IA génératives sont souvent calibrées pour éviter de nous déplaire, quitte à masquer leur propre raisonnement ou à déformer subtilement la réalité. Comme cela a été montré, dans des situations où le modèle est mis sous pression, il peut tromper stratégiquement l’utilisateur, non pas par malice, mais pour rester acceptable et satisfaisant (Large Language Models can Strategically Deceive their Users when Put Under Pressure).
Même les acteurs majeurs de l’IA reconnaissent aujourd’hui les effets ambivalents de leurs outils. Une étude menée par Microsoft souligne par exemple une baisse de l’effort cognitif et une confiance excessive dans les réponses générées par l’IA, au détriment du raisonnement critique (The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers). On ne lui reprocher son manque d’objectivité alors que la firme de Redmond pourrait essayer de minimiser ce type de discours mais elle interroge tout de même : si les risques sont identifiés, pourquoi continuer à généraliser ces outils sans dispositif de vigilance associé ? Sans même qu’il y ait intention délibérée, le design des outils finit par favoriser un comportement conforme, rapide, peu critique et donc parfaitement aligné avec les logiques d’efficacité opérationnelle. Ce n’est pas une intention malveillante mais c’est juste que, dans un monde obsédé par le rendement, penser moins peut sembler plus rentable et plus efficace opérationnellement.
La Harvard Business Review a d’ailleurs observé un phénomène connexe : les dirigeants utilisant l’IA générative prennent plus souvent de mauvaises décisions, tout en étant paradoxalement plus confiants dans leurs choix (Research: Executives Who Used Gen AI Made Worse Predictions).
À cela s’ajoute une autre quant à savoir si le mythe même de l’apprentissage automatisé, cette idée qu’on pourrait apprendre mieux sans effort, était à revoir ? (The Myth of Automated Learning).
Ce qu’on appelle biais d’optimisation, à savoir la tendance des modèles d’IA à privilégier systématiquement la réponse la plus probable, la plus immédiatement satisfaisante fait que leur objectif n’est pas de faire réfléchir, mais de répondre vite, de manière fluide, en maximisant la « pertinence perçue ». Ce biais est inscrit dans leur ADN, dans ce qui fait que l’IA générative est ce qu’elle est et il entre en contradiction frontale avec le raisonnement humain, qui avance par approximations, doutes, révisions, essais et erreurs. Mais ça n’est pas un bug : dans l’économie de l’attention, la simplification cognitive est vue comme une stratégie payante. Ce qui est trop nuancé nous fait ralentit, ce qui est trop complexe nous amène à réfléchir alors que moins l’utilisateur pense, plus il suit.
Le problème, ce n’est pas de se tromper, c’est de perdre du temps en chemin.
Le management, vigie ou vecteur de dégénérescence cognitive ?
Dans cette dynamique, le rôle du management devient central dans l’entreprise comme doivent l’être les parents dans le cadre familial ou les professeurs dans un cadre éducatif. Ils peuvent être le relais d’une pensée assistée, répétant mécaniquement les recommandations issues de tableaux de bord ou d’outils d’IA sans les interroger mais ils peuvent tout aussi bien être ceux qui maintiennent l’effort de discernement, qui réintroduisent du jugement là où les algorithmes se complaisent dans les généralisations et qui protègent la possibilité de discuter et faire valoir une opinion dissonante dans un environnement qui ne tolère que ce qui est conforme à la norme.
Dans des organisations sous pression où la productivité est quantifiée à outrance et les décisions de plus en plus remplacées par des automatisations, le manager devient soit un accélérateur de la dégénérescence cognitive soit l’un de ses derniers garde-fous. C’est lui qui, au sein de son équipe, peut privilégier la discussion plutôt que l’adhésion forcée, l’analyse plutôt que l’exécution immédiate et l’exploration de voies nouvelles plutôt que suivre la routine. Cela, à condition, bien sûr, qu’il dispose du temps, des moyens et surtout de la lucidité nécessaire pour le faire.
L’intelligence collective, elle aussi, peut être mise à mal. A force de décisions formatées par des modèles, de validations en chaîne via des IA, la complexité du réel finit par disparaître des radars. Il importe alors de repenser la gouvernance cognitive des collectifs : comment on débat, comment on élabore des jugements partagés, comment on protège un espace pour désaccord car ce que l’on gagne en fluidité, on le perd souvent en discernement.
Je vous renvoie encore une fois à ma série d’articles sur la gouvernance augmentée que je mentionnais plus haut.
Mais tout n’est pas perdu. L’IA peut en effet aussi devenir un levier d’excellence opérationnelle cognitive, à condition de la concevoir comme un partenaire exigeant et non comme un automate complaisant. Une IA qui confronte, qui oblige à préciser, qui pointe nos raccourcis intellectuels, peut jouer le rôle du collègue un peu contrariant mais indispensable à la qualité du raisonnement collectif. C’est juste une question de design, de posture et d’intention.
Conclusion
Il est temps de poser l’exigence selon laquelle l’IA ne doit pas penser à notre place, mais nous aider à mieux penser. Cela suppose une rééducation culturelle et technique, de redonner du prix à l’effort intellectuel, d’enseigner et valoriser la friction, la vérification, le débat et d’intégrer dans les interfaces des mécanismes qui suscitent l’analyse plutôt que la passivité.
Mais cela suppose surtout une vigilance intentionnelle. Rien ne changera si nous nous laissons aller à la facilité car on ne parle ici d’une dégénérescence inéluctable mais d’une dégénérescence par abandon dont nous pouvons encore nous extraire.
Le problème n’est pas l’IA mais plus sûrement notre docilité face à elle.
FAQ
Oui, des études montrent que l’usage intensif de l’IA peut réduire l’effort cognitif, diminuer le doute et favoriser une confiance excessive dans les réponses. Cela conduit à un appauvrissement du raisonnement autonome, surtout chez les plus jeunes.
Parce que l’IA prend en charge non seulement notre mémoire mais aussi nos raisonnements. Plus elle fait à notre place, plus nous perdons l’habitude de décomposer un problème ou de formuler des questions complexes.
Oui. Certaines recherches montrent que l’usage d’outils numériques peut retarder le déclin cognitif, notamment chez les personnes âgées. L’IA peut aussi stimuler la pensée lorsqu’elle est utilisée comme un partenaire exigeant et non comme une béquille automatique
Souvent des deux. L’IA amplifie des tendances déjà présentes : obsession de la rapidité, conformité, surcharge cognitive. Si les environnements éducatifs et professionnels valorisent la réflexion, l’IA peut au contraire devenir un levier d’apprentissage.
En adoptant une posture active : vérifier, confronter, demander des justifications, intégrer des moments de débat et de friction. L’IA doit être conçue et utilisée comme un partenaire qui stimule la réflexion, pas comme un substitut à notre jugement.
Crédit visuel : Image générée par intelligence artificielle via ChatGPT (OpenAI)








