Depuis que la question de l’adoption de l’IA est posée en entreprise se pose, comme historiquement cela a été le cas pour toutes les technologies, la question de savoir s’il faut commencer par le haut, en donnant une impulsion stratégique et un cadre, en affichant une volonté claire ou au contraire laisser les usages émerger par le bas en faisant confiance aux équipes pour trouver seules les bons cas d’usage.
Poser la question ainsi a le mérite de simplifier le problème car cela donne l’impression qu’il suffirait de choisir un point d’entrée pour que le reste suive. Or l’expérience montre que cette question, posée ainsi, conduit presque toujours à des impasses. Pas parce que l’une des deux approches serait fausse, mais parce que toutes deux évitent le cœur du sujet : la manière dont des usages deviennent, ou non, des choix collectifs porteurs de valeur (L’appropriation collective de l’IA seule condition d’impact tangible).
En bref :
- Opposer une approche « top-down » et « bottom-up » dans l’adoption de l’IA masque la vraie question : comment transformer des usages locaux en pratiques collectives porteuses de valeur.
- L’approche « bottom-up » favorise l’ancrage dans la réalité du terrain, mais sans coordination ni gouvernance, les gains restent limités et dispersés.
- L’approche « top-down » permet de fixer un cap, mais produit souvent des projets déconnectés du travail réel, motivés par la pression externe plus que par la création de valeur.
- Le véritable enjeu réside dans l’appropriation collective, à travers une zone intermédiaire où les usages expérimentaux deviennent des choix structurants pour l’organisation.
- L’exemplarité des dirigeants ne se mesure pas à leur usage personnel de l’IA, mais à leur capacité à arbitrer, à encadrer les usages et à assumer les décisions stratégiques liées à son déploiement.
Les mérites d’une approche « bottom-up » du déploiement de l’IA
L’idée de commencer par le bas repose sur une intuition largement partagée selon laquelle l’adoption ne peut être décrétée et doit partir de la réalité du terrain. Les équipes savent où l’IA peut leur faire gagner du temps, améliorer la qualité de ce qu’elles produisent ou réduire certaines frictions et, en laissant les usages émerger, on espère éviter les déploiements hors sol et ancrer la technologie dans la réalité opérationnelle.
Dans les faits, cette approche produit effectivement des usages et peut même produire des gains de productivité visibles à l’échelle individuelle ou d’une équipe, mais elle atteint très vite une limite. Les usages se multiplient sans se coordonner, les gains restent locaux, et l’organisation n’en tire aucun effet mesurable à son échelle. Le temps gagné est absorbé, redistribué de manière informelle ou se perd dans les rouages du système (Sans gouvernance, les gains dus à l’IA sont virtuels).
Commencer par le bas permet l’usage mais ne suffit pas toujours à produire une adoption productive (L’adoption de l’IA ne remplace pas son appropriation productive).
Pour terminer disons que cette approche par le bas permet d’éviter le piège de la solution à la recherche d’un problème » mais elle peut créer le exactement la situation inverse qui n’est guère plus désirable à savoir le fait de tout vouloir résoudre avec l’IA. Vous savez, lorsqu’on a qu’un marteau on veut que tous les problèmes ressemblent à des clous.
Et c’est confirmé dans les faits. Pour en avoir parlé avec des consultants spécialisés dans l’accompagnement des projets IA de leurs clients ils m’ont unanimement confirmés que, selon leur expérience, il arrive que plus 50% des cas d’usage remontés par le terrain soient en fait des problèmes que l’on peut (et même doit) résoudre soit dans IA soit avec des outils déjà présents dans l’entreprise.
Avantage d’une approche top-down de l’IA
A l’inverse, commencer par le haut doit permettre d’éviter cette dispersion. Il s’agit de fixer une intention, de définir des priorités, de donner un sens commun aux initiatives et, dans cette logique, l’adoption est pensée comme un sujet de pilotage, avec des objectifs, des indicateurs et des règles du jeu claires.
Là encore, l’intention est louable mais l’expérience montre que cette approche est également loin d’être parfaite. Les cadres sont définis sans prise connaissance claire du travail réel (Connaissez vous l’iceberg de l’ignorance de Yoshida ou ce que le management refuse de voir) et les équipes utilisent les outils parce qu’on leur a demandé de les utiliser mais sans que cela transforme en profondeur leur manière de travailler.
Commencer par le haut permet de donner une direction mais ne crée pas l’appropriation. L’organisation affiche une ambition sans toujours se donner les moyens de la traduire dans les gestes quotidiens du travail.
Ajoutons aussi que cette approche peut avoir tendance à diffuser panique et chaos là où on aurait juste voulu faire naitre un sentiment d’urgence. En effet on a aujourd’hui assez de retours sur expérience pour dire que beaucoup de dirigeants poussent à faire des projets IA « pour faire de l’IA », sous la pression d’investisseurs qui n’y comprennent pas plus qu’eux et qu’à la fin il en résulte un certain désordre et des projets mal pensés dans l’urgence dont l’échec programmé ne fait qu’ajouter au scepticisme par rapport à cette technologie.
Plusieurs de des études convergent en effet sur ce point : tensions internes, désalignement CEO–CIO–CISO, absence de politiques claires et faible ROI, alors même que la pression externe (investisseurs, concurrence, narratif « tout le monde fait de l’IA ») pousse à multiplier les projets vitrine, ce qui correspond exactement au scénario d’entreprises qui « font n’importe quoi du moment qu’il y a de l’IA dedans ». Pour Dataiku, par exemple, 35 % des initiatives IA relèvent de l’ »AI washing« , c’est‑à‑dire des projets menés conçus pour envoyer un signal d’innovation plutôt que pour créer de la valeur business (Avoid AI Agent Washing: 4 CEO Priorities for Signal Over Noise).
D’autre part 83 % des CEO qui estiment que les investisseurs jugent désormais la stratégie et l’exécution IA dans leurs décisions, ce qui pousse à multiplier des projets visibles mais superficiels (Why AI Demands Have 74% Of CEOs Fearing For Their Jobs).
Un faux dilemme
Opposer le haut et le bas revient en réalité à masquer ce qui fait défaut dans la plupart des entreprises : la zone intermédiaire où les usages devraient devenir des pratiques stabilisées (Stabiliser pour avancer : pourquoi l’expérimentation seule ne produit rien avec l’IA).
Ni le « par le bas » ni le « par le haut » ne traitent correctement cet sujet. Le premier le contourne en espérant que les choses remonteront d’elles-mêmes alors que le second le survole en pensant que le cadre suffira. Dans les deux cas, l’adoption reste incomplète et la valeur ne se matérialise pas.
L’exemplarité des leaders est souvent surestimée
C’est là qu’apparaît souvent la question de l’exemplarité des leaders. Faut-il que les dirigeants utilisent eux-mêmes l’IA pour montrer la voie et qu’ils affichent publiquement leurs usages pour entraîner le reste de l’organisation ?
Posée ainsi l’impact de l’exemplarité est plutôt surestimé. Un dirigeant peut utiliser l’IA quotidiennement sans que cela ne change quoi que ce soit au travail de ses équipes et, inversement, des équipes peuvent s’approprier des outils sans que leurs dirigeants n’y touchent jamais. L’exemplarité par l’usage est au mieux symbolique, au pire une mise en scène. Après tout le fait qu’à une époque les dirigeants se faisaient imprimer leurs emails et faisaient taper les leurs par leur secrétaire n’a pas empêcher cet outil de se déployer.
La question n’est donc pas là.
Là où l’exemplarité importe vraiment n’est pas dans l’usage mais dans l’arbitrage. Un leader est exemplaire lorsqu’il accepte de traiter les conséquences des usages qui émergent, lorsqu’il décide de ce que fait des gains obtenus ou encore quand il assume que tout ce qui est possible ne sera pas exploré ou pérennisé.
L’exemplarité ne consiste pas à montrer comment utiliser l’IA, mais à montrer comment on décide quand l’IA change les règles du jeu et qu’il faut reprendre la main sur la technologie sans la laisser mener le jeu (Si votre entreprise n’est pas conçue pour l’IA elle finira conçue par l’IA).
Alors vous de direz que je disais exactement le contraire à l’époque où je parlais beaucoup d’outils collaboratifs mais le sujet n’est absolument pas le même. L’utilisation de ces outils suppose en effet une uniformité dans l’usage au sein d’une équipe : si votre boss n’utilise pas le réseau social ou la messagerie et vous demande de tout doubler par un email vous allez vite vous essouffler. Par contre l’adoption de l’IA commence par un usage individuel quand bien même la création de valeur est un phénomène collectif mais pas nécessairement au sein d’une équipe avec une dimension hiérarchique mais plutôt au long d’un worflow avec une dimension plus opérationnelle et, souvent, transversale.
Alors effectivement la sécurité psychologique joue toujours un rôle mais elle est davantage inspirée par le management de proximité que par les dirigeants. Bien sur, in fine, cette sécurité ruisselle du haut mais dans le cas précis de l’IA il ne faut pas surestimer le rôle des dirigeants et les nombreux cas de Shadow AI en sont la preuve.
Adoption, productivité et responsabilité
La question de savoir s’il faut commencer par le haut ou par le bas est trop souvent une manière d’éviter la question de la responsabilité. L’adoption productive suppose que quelqu’un accepte d’assumer le moment où l’usage cesse d’être une expérimentation et devient un choix structurant.
A défaut, la productivité peut alors augmenter localement sans jamais produire d’effet mesurable à l’échelle de l’entreprise, non que la valeur potentielle n’existe pas, mais parce qu’aucune décision ne vienne acter comment on passe du potentiel au réel.
Conclusion
L’adoption de l’IA ne commence ni par le haut ni par le bas mais lorsque l’organisation arrive à faire le lien entre ce qui se passe sur le terrain et ce qui se décide au sommet. Tant que ce lien n’est pas réalisé, les usages se multiplient sans produire de valeur collective.
L’exemplarité des leaders ne se joue pas dans leur capacité à utiliser les outils, mais dans leur capacité à arbitrer et peser sur la gouvernance.
La question n’est pas de commencer par le haut ou le bas mais de savoir ce qu’on fait pour que les deux approches se rencontrent de manière constructive.
Pour répondre à vos questions…
Opposer top-down et bottom-up est un faux dilemme. Une adoption par le bas fait émerger des usages concrets mais dispersés, sans impact collectif. Une impulsion par le haut donne une direction mais reste souvent déconnectée du travail réel. Dans les deux cas, la valeur ne se matérialise pas pleinement. Le véritable enjeu est de relier les usages du terrain aux décisions stratégiques pour transformer des initiatives isolées en pratiques collectives créatrices de valeur.
L’approche bottom-up permet aux équipes de trouver des usages utiles de l’IA et de générer des gains locaux. Toutefois, sans coordination ni gouvernance, ces gains restent invisibles à l’échelle de l’entreprise. Les usages se multiplient sans cohérence et une part importante des cas identifiés ne nécessite pas réellement de l’IA. L’usage existe, mais il ne devient pas une adoption productive ni une transformation organisationnelle durable.
Une stratégie top-down permet de fixer des priorités et d’afficher une ambition claire, mais elle est souvent conçue sans connaissance fine du travail réel. Les équipes utilisent alors l’IA par obligation, sans changement profond des pratiques. Sous pression externe, cela peut conduire à des projets vitrines mal pensés, générant désordre, faible ROI et scepticisme interne plutôt qu’une création de valeur tangible.
L’exemplarité par l’usage est largement surestimée. Le fait qu’un dirigeant utilise l’IA n’entraîne pas automatiquement l’organisation. L’exemplarité réelle se situe dans la capacité à arbitrer : décider quels usages doivent être pérennisés, comment exploiter les gains obtenus et quelles limites poser. Ce sont ces décisions, plus que l’usage personnel des outils, qui structurent une adoption efficace de l’IA.
L’adoption productive repose sur la capacité à transformer des usages expérimentaux en choix collectifs assumés. Cela implique une responsabilité claire au moment où l’IA cesse d’être un test pour devenir structurante. Tant que ce passage n’est pas décidé, les gains restent locaux et diffus. La valeur apparaît lorsque l’organisation fait le lien entre terrain et gouvernance, et assume les décisions qui en découlent.
Crédit visuel : Image générée par intelligence artificielle via ChatGPT (OpenAI)








