On a souvent besoin de croire qu’une nouvelle idée va réparer ce que les précédentes n’ont pas su corriger. C’est une constante de la vie des organisations : dès qu’un concept s’essouffle un autre le remplace, censé délivrer enfin les promesses trahies et c’est encore plus vrai quand la promesse réside ou est supportée par des technologies dont on sait qu’elles suivent un modèle en montagne russes qui enchaine phases d’excitation, de déception pour enfin en arriver à un certaine normalité. L’intelligence artificielle arrive aujourd’hui dans rôle de sauveur technologique, de booster d’efficacité, du catalyseur de transformation. Elle succède au Lean, qui fut, il y a vingt ans porteur d’un même élan. Et même si l’un est davantage une approche et une philosophie et l’autre une technologie on comme un effet de répétition pointer avec mêmes slogans et les mêmes espoirs pour souvent finir dans les mêmes impasses.
Ca n’est pas une coïncidence mais, au contraire, le signe qu’en entreprise, on préfère réinventer les outils qu’ils soient méthodologiques ou technologiques plutôt que d’interroger la manière de s’en servir.
En bref :
- Les organisations adoptent régulièrement de nouveaux concepts ou technologies comme l’IA, en espérant qu’ils corrigeront les échecs des approches précédentes, mais reproduisent souvent les mêmes erreurs par manque de remise en question des usages.
- Le parallèle entre l’IA et le Lean montre une répétition des mêmes promesses de transformation (efficacité, libération du temps), suivies de désillusions dues à des mises en œuvre déconnectées du terrain et centrées sur le contrôle plutôt que sur la confiance.
- Les échecs des projets IA ne tiennent pas tant à la technologie qu’à l’incapacité des organisations à expérimenter, itérer et impliquer les bonnes personnes, reproduisant les dérives observées avec le Lean (réduction des coûts au lieu de développement des personnes).
- Le désengagement des salariés est souvent une réaction rationnelle à l’écart entre discours managérial et réalité vécue, où les outils numériques, censés aider, deviennent des instruments de surveillance et de standardisation du travail.
- Pour que l’IA devienne un levier de progrès réel, elle doit s’inspirer des principes fondateurs du Lean : observation du terrain, apprentissage continu, respect des personnes et engagement explicite à ne pas lier gains de productivité à des suppressions de postes.
Même pièce mais nouveau décor
Les organisations font preuve d’une réelle constance quand il s’agit de répéter les mêmes erreurs tout en croyant réinventer le monde. On change les mots, les consultants et les logiciels, mais l’histoire reste la même avec une promesse de transformation, un enthousiasme collectif auquel succède une lente désillusion. Le Lean fut un jour cette promesse. L’intelligence artificielle, aujourd’hui, l’incarne avec des habits neufs et, déjà, l’on devine la même dérive : l’outil comme un totem et son esprit oublié en route.
Un parallèle qui n’a rien de surprenant. Dans les deux cas, en effet, la rhétorique est identique : améliorer l’efficacité, supprimer les tâches sans valeur ajoutée, libérer du temps pour l’humain. Et, dans les deux cas, la mise en œuvre trahit la promesse : on impose des dispositifs pensés loin du terrain, on mesure sans comprendre, on contrôle sans accompagner. Résultat : défiance, fatigue, parfois même rejet.
Le mirage du nouveau miracle
L’erreur ne vient pas des outils ou des concepts mais de l’usage qu’on en fait. A fois cycle, le scénario est identique : annonce d’une rupture, mobilisation effrénée, puis déception. Un rapport du MIT qui a fait couler beaucoup d’encre constate que 95 % des initiatives IA en entreprise n’ont produit aucun impact mesurable sur le P&L (State of AI in business 2025). Cinq pour cent réussissent. Les autres collectionnent des pilotes, des use cases et des tableaux de bord, sans transformation réelle.
J’ai déjà eu l’occasion de pointer les limites de cette étude, des limites qui ne sont pas celles que ses détracteurs ont mis en avant. En effet elle constate l’absence d’impact de l’IA sur le revenu, ce qui ne devrait en aucun cas être une surprise car la promesse de l’IA n’est pas le revenu mais la productivité (Les technologies vendent de la productivité, mais les entreprises veulent du revenu). Passer de l’un à autre est un autre sujet qui, lui, relève davantage de la transformation des organisations et des chaînes de valeur que l’adoption des technologies (Qui s’occupe de vos projets d’intelligence artificielle ? Probablement pas les bonnes personnes.).
Mark Graban explique, lui, un autre aspect du problème. Pour lui ça n’est pas la technologie qui échoue mais c’est l’organisation : incapacité à expérimenter, à itérer, à apprendre. C’est donc une faillite de la méthode et pas de la technologie (95% of Enterprise AI Pilots “Fail”–Just Like Lean? Not So Fast).
Ce constat pourrait être copié-collé à propos du Lean vingt ans plus tôt : on a confondu amélioration continue avec chasse aux coûts et engagement collectif avec transformation contrainte. A chaque fois, le même réflexe : l’outil devient un symbole qu’on espère automoteur et qui se substitue alors à la réflexion.
L’héritage mal digéré du Lean
Revenir au Lean, c’est se parler d’un projet qui voulait réconcilier productivité et respect du travail mais la plupart des entreprises occidentales ont importé l’outil sans la philosophie alors que le Lean ne consiste pas à réduire les effectifs mais à développer les personnes (Lean Isn’t About Cutting Heads–It’s About Growing People and Cultures of Improvement) et, d’ailleurs, dans de nombreuses expériences réussies il a été utilisé avec la promesse formelle que l’amélioration ne conduirait à aucun licenciement (Lean Without Layoffs: The Commitment That Makes Continuous Improvement Work).
A l’inverse, lier Lean et suppressions de postes revient à détruire la confiance qui rend toute amélioration possible.
Or ce que le Lean a vécu dans les années 2000, l’IA le reproduit aujourd’hui : derrière le discours sur l’augmentation beaucoup perçoivent une volonté de se séparer de collaborateurs. Quand une direction annonce que l’IA fera gagner du temps chacun comprend instinctivement que ce temps gagné servira à réduire les effectifs. Ca n’est pas de la paranoïa mais une mémoire organisationnelle.
Le désengagement, un symptôme rationnel
Les salariés ne rejettent pas l’innovation par conservatisme, mais parce qu’ils ont appris à décoder les signaux faibles. Selon Gallup, seuls 21 % des salariés dans le monde se déclarent engagés (Engagement Recedes for the First Time in Four Years) engendrant une perte de productivité à l’échelle mondiale de 438 milliards de dollars. Un désengagement qui vient en grande partie d’un désalignement persistant entre promesse et réalité.
Yves Caseau analyse ce décalage ainsi : on célèbre les agents intelligents et le futur du travail mais on ignore les irritants quotidiens. On parle de transformation numérique quand les équipes attendent juste qu’on répare les process absurdes, qu’on supprime les doubles saisies, qu’on leur redonne du temps pour bien faire. Là encore, l’esprit du genchi genbutsu (aller voir par soi-même) est oublié (Futur du travail, Agents intelligents et Genchi Genbutsu).
De l’aide au contrôle
Plus l’entreprise affirme vouloir faciliter le travail plus elle introduit des outils qui le surveillent. Souvent l’IA se manifeste moins par des robots que par des systèmes présents en arrière-plan : assistants qui suggèrent la « bonne » réponse client, plateformes qui chronomètrent les tâches, logiciels qui évaluent la conformité d’un dossier. Des outils censés aider mais qui peu à peu dictent la manière de faire.
Le Lean originel faisait exactement l’inverse car il reposait sur la confiance dans l’intelligence du terrain. Il partait du principe que les personnes qui font le travail savent mieux que quiconque comment l’améliorer. Lorsqu’elle est déployée sans retour du terrain, l’IA fige l’expérience au lieu de s’en nourrir, transforme la pratique en procédure et le savoir en contrainte.
Respectons l’esprit du Lean pour restaurer la confiance en l’IA
Si l’IA veut être le nouveau Lean, non pas dans le mauvais mais le bon sens du terme, pour ne pas être dévoyée mais créer la confiance avec ses utilisateurs, il faut qu’elle en reprenne les principes fondateurs plutôt que ses caricatures. Partir de la réalité du terrain, apprendre en marchant, respecter les personnes.
Partir du réel, c’est concevoir les cas d’usage avec ceux qui font, pas à leur place. C’est aller sur le terrain, observer et lister les tâches, comprendre les flux, les irritants, les zones grises. Le Lean appelait cela genchi genbutsu et l’IA devrait, elle aussi, partir de l’observation du travail tel qu’il se fait, avant de vouloir le transformer. N’oublions pas que seuls 4% des problèmes sont visibles du sommet de l’organisation…(Connaissez vous l’iceberg de l’ignorance de Yoshida ou ce que le management refuse de voir).
Apprendre en marchant, c’est intégrer la boucle de retour, l’amélioration incrémentale. Le MIT l’a rappelé dans son étude sur les causes d’échec des projets IA : la plupart ne disposent d’aucun mécanisme de feedback, d’où leur inéfficacité (MIT: Why 95% of Enterprise AI Investments Fail to Deliver).
Et respecter les personnes, c’est prendre un engagement clair : les gains de productivité ne seront pas synonymes de suppression d’emplois. Graban en a fait une règle quasi morale : « no layoffs due to lean« . Sans cette promesse, aucune démarche ne survit aux doutes initiaux et encore moins à la première crise.
L’IA n’est pas le nouveau Lean mais le miroir de son détournement
Le Lean a échoué chaque fois qu’il a été instrumentalisé au service d’un objectif financier. et l’IA connaîtra le même sort si elle est utilisée contre ceux qu’elle soit servir. D’une certaine manière, les organisations qui réussiront ne seront pas celles qui automatisent le plus, mais celles qui apprendront le mieux.
On ne change pas le travail en ajoutant une couche technologique mais en changeant la relation entre ceux qui le décident et ceux qui le font. Le Lean avait échoué à l’enseigner, l’IA est en train de l’oublier à son tour.
Mais au lieu d’y voir une mode de plus on peut y voir un test de maturité managériale. Les entreprises qui sauront faire de l’IA un instrument d’apprentissage collectif et non de rationalisation unilatérale redonneront du sens à la technologie alors que les autres continueront à additionner des projets morts-nés.
Conclusion
L’IA n’est pas le nouveau Lean mais le miroir de ce que les entreprises ont fait du Lean : une mécanique instrumentalisée, une idée vidé de son sens et un projet technique habillé d’un discours humain.
Mais ça n’est pas une fatalité. Il nous suffit de répondre à une question simple avec laquelle les dirigeants sont assez inconfortables : veut-on transformer le travail, ou seulement réduire les coûts ?
Le Lean a échoué quand il a cessé d’être une philosophie du progrès collectif. L’IA échouera de la même manière si elle reste une stratégie d’optimisation.
Et n’oublions pas que la technologie est un mot qui décrit quelque chose qui ne fonctionne pas encore (Douglas Adams)
Pour répondre à vos questions…
Les deux ont porté la même promesse : efficacité, simplification, temps libéré pour l’humain. Mais comme le Lean, l’IA est souvent appliquée sans en comprendre l’esprit. L’article souligne que le problème vient moins des outils que de leur usage : déploiement imposé, absence d’écoute du terrain et indicateurs déconnectés de la réalité.
Le MIT montre que la plupart échouent faute d’ancrage opérationnel. Les entreprises lancent des pilotes sans apprentissage ni retour d’expérience. L’IA promet la productivité, pas le revenu, mais elle est rarement intégrée dans une transformation réelle des pratiques et des chaînes de valeur.
Le Lean visait à développer les personnes, pas à réduire les coûts. En l’associant à des suppressions d’emplois, les entreprises ont détruit la confiance. L’article rappelle que la promesse « pas de licenciements liés aux gains » est essentielle, faute de quoi l’IA subira le même rejet.
Après des années de promesses non tenues, les salariés associent innovation et perte d’emplois. Le désengagement vient d’un décalage entre discours de transformation et réalité du terrain. Ils attendent surtout qu’on simplifie leur quotidien avant d’ajouter de nouveaux outils.
Trois principes : partir du terrain, apprendre en marchant et respecter les personnes. Cela suppose co-construction, feedback continu et engagement clair sur l’emploi. L’IA réussira si elle sert l’apprentissage collectif plutôt que la seule optimisation.
Crédit visuel : Image générée par intelligence artificielle via ChatGPT (OpenAI)








