Adoption de l’IA : des méthodes à l’épreuve de la réalité

-

On parle aujourd’hui d’adoption de l’intelligence artificielle comme on parlait hier de transformation digitale avec la conviction qu’il suffirait d’un cadre pour maîtriser la nouveauté. Mais l’IA ne s’adopte pas, elle s’apprend et avant de transformer elle oblige à comprendre comment on travaille, comment on décide, comment on apprend collectivement et les résultats mitigés obtenus jusqu’ici en sont la preuve (Adoption de l’IA en entreprise : état des lieux).

Depuis un an, les frameworks, guides et modèles de maturité se multiplient. Microsoft, AWS, BCG, McKinsey, l’OCDE, NIST…tous promettant d’organiser le passage de l’expérimentation à la production. Mais que valent ces méthodes quand elles s’appliquent à des organisations qui n’ont pas encore réfléchi à leur vision du travail dans un monde post IA ?

Ici je ne cherche donc pas à opposer les approches, mais à les examiner pour ce qu’elles sont : des tentatives souvent incomplètes, « orientées » dans la mesure où elles servent plus la philosophie de leur auteur que les besoins du client mais toujours car elles donnent une base pour démarrer et ensuite apprendre de ses erreurs à condition qu’on ait envie d’aller au delà du simple déploiement de la technologie et qu’on veuille faire de ce moment une démarche d’apprentissage de soi-même et de progrès (95% of Enterprise AI Pilots « Fail »–Just Like Lean? Not So Fast) .

Mais, avant tout, il faut bien avoir en tête qu’adopter l’IA ça n’est pas juste suivre une méthode mais se confronter à la réalité de son propre fonctionnement pour le questionner avant de faire n’importe quoi.

En bref :

  • L’IA pousse les entreprises à s’interroger sur leur identité et leur vision future.
  • Les organisations les plus mûres y voient une occasion d’apprentissage et de transformation.
  • D’autres s’en remettent trop à leurs outils et frameworks, pensant à tort qu’ils suffiront à réussir l’adoption de l’IA.
  • Les méthodes et bonnes pratiques sont utiles mais restent secondaires face à la question du sens et de la finalité.
  • Adopter l’IA implique de repenser en profondeur le travail, avant d’y intégrer des solutions technologiques.

Les méthodologies d’adoption de l’IA

Les cadres industriels : intégration rapide mais dépendance assumée

Les premiers à s’être positionnés sont évidemment les fournisseurs eux-mêmes. Microsoft, AWS, Google et IBM ont produit des cadres d’adoption complets, structurés avec l’objectif de rassurer pour accélérer le passage à l’action.

Chez Microsoft, le Cloud Adoption Framework for AI décrit une trajectoire avec une rigueur quasi militaire : alignement stratégique, évaluation de l’existant (données, sécurité, gouvernance), choix de services cloud, mise en place d’une data governance, puis déploiement progressif de cas d’usage avec suivi (AI adoption). La logique est claire : il s’agit donner une méthode clé en main aux clients Microsoft pour passer de l’expérimentation à l’industrialisation, dans un socle cohérent (Azure, Copilot, Fabric). L’avantage est assez évident en termes de clarté, cohérence et d’outillage immédiat. Mais il y a aussi une limite qui est que l’IA y est vue comme une extension naturelle de la stack Microsoft : l’adoption est cadrée par les possibilités techniques, rarement par une réflexion sur la transformation du travail.

AWS, de son côté, propose la Prescriptive Guidance for enterprise-ready generative AI qui est elle aussi d’une précision remarquable (Best practices for enterprise generative AI adoption and scaling). On y retrouve la logique du « hub and spoke », l’évaluation de maturité, la mise en place d’un centre d’excellence, la standardisation des patterns et une architecture en quatre couches (infrastructure, modèles, sécurité/gouvernance, applications). C’est une méthodologie d’ingénierie avant tout : exhaustive, documentée, et parfaitement adaptée à ceux qui voient l’adoption comme un projet technique. Mais c’est aussi une logique d’enfermement : tout est pensé pour l’écosystème AWS, et la question du travail est totalement occultée.

Ces cadres sont excellents pour les équipes IT car ils structurent le « comment » mais ils restent muets sur le « pourquoi », sur la manière dont les métiers s’approprient la technologie, sur la culture qui doit se construire autour.

Les cadres académiques / institutionnels : vision systémique mais mise en œuvre difficile

A côté des méthodes « made in éditeur » on trouve des approches académiques qui adoptent l’angle : celui de la capacité organisationnelle.

Le modèle AI-CAM – AI Capability Assessment Model propose cinq niveaux de maturité sur sept dimensions : business, données, technologie, organisation, compétences, risques, éthique (Towards a Capability Assessment Model for the Comprehension and Adoption of AI in Organisations). Il ne s’agit pas de savoir si l’entreprise « fait de l’IA » mais si elle est capable d’en faire quelque chose : culture de la donnée, gouvernance, responsabilité. Utile pour se situer, mais d’une complexité telle qu’il est difficile d’en faire un véritable levier.

Les maturity models publics, comme celui de la General Services Administration américaine (Introduction to the AI Guide for Government) ou la grille de l’OCDE (Policies, data and analysis for trustworthy artificial intelligence) prennent encore plus de hauteur. L’OCDE, en particulier, met en lumière la lenteur de la diffusion de l’IA, les écarts sectoriels, les obstacles structurels : compétences, données, culture, gouvernance. Ces modèles montrent que l’adoption est un fait socio-technique et en aucun cas un problème d’infrastructure mais ne disent pas comment on passe de la compréhension.

Le NIST, avec son AI Risk Management Framework, adopte une posture différente : il ne propose pas un modèle de maturité ou une trajectoire d’adoption, mais une méthode pour développer une relation lucide à l’IA (AI Risk Management Framework). Le cadre s’articule autour de quatre fonctions, Govern, Map, Measure, Manage qui forcent les organisations à comprendre leurs systèmes avant de les transformer, à mesurer les risques autant que les performances, et à ajuster en continu les modèles comme les processus. Le NIST insiste sur un point souvent négligé dans les démarches d’IA à grande échelle : la performance d’un système IA ne se juge jamais indépendamment de son contexte, de ses données, de son usage et de ses effets sur les personnes et les opérations. C’est un cadre assez exigeant qui rappelle que l’adoption de l’IA est moins une question de technologie qu’une question de responsabilité et de compréhension.

Les cadres hybrides : cabinets & guides intégrés

Les grands cabinets ont développé leurs propres cadres « hybrides », qui articulent stratégie, organisation et technologie dans une logique d’industrialisation. Leur objectif n’est pas seulement de décrire comment lancer l’IA, mais comment transformer une série d’expérimentations en une capacité opérationnelle durable.

Le BCG distingue désormais les entreprises réellement « AI-enabled », celles qui parviennent à réduire ce qu’ils appellent l’ »AI impact gap » c’est à dire l’écart souvent abyssal, entre l’ambition et la valeur effectivement capturée (From Potential to Profit: Closing the AI Impact Gap et Where’s the Value in AI?). Leurs analyses montrent que les organisations capables de passer à l’échelle sont celles qui ont construit une plateforme unifiée, standardisé leurs workflows, clarifié leur gouvernance et organisé la montée en compétences autour d’une logique de capacité, non de projets isolés.

McKinsey, de son côté, parle d’ »AI high performers » : un groupe d’entreprises qui dégage des résultats supérieurs parce qu’elles ont industrialisé plus vite, aligné leurs cas d’usage sur le métier, professionnalisé leur gouvernance et réconcilié stratégie, technologie et capital humain (The state of AI in early 2024: Gen AI adoption spikes and starts to generate value). Ce rapport détaille ce qui distingue ces organisations, à savoir l’intégration de l’IA dans plusieurs métiers à la fois, la discipline opératoire, une gestion rigoureuse du risque et la capacité à réécrire des pans entiers d’opérations.

Ces cadres ont le mérite d’articuler plateforme, organisation et valeur, et s’appuient sur une observation fine des entreprises en avance mais limite est inhérente à leur nature : ce sont des démarches prescriptives, qui décrivent une trajectoire idéalisée et supposent un niveau de cohérence interne que peu d’organisations possèdent réellement. Ils disent comment « faire bien » dans un environnement stable, mais s’accommodent moins des dynamiques chaotiques, politiques et culturelles qui caractérisent la vraie vie des entreprises.

Le noyau dur des best practices

En observant les leaders que sont Microsoft, AWS, le BCG, OpenAI, l’OCDE ou encore le MIT un consensus semble se dégager.

Les entreprises qui progressent :

– Alignent explicitement leurs initiatives IA sur quelques objectifs métiers précis, avec un sponsor exécutif et des métriques de valeur claires.
– Commencent par un diagnostic de capacités honnête : données, dette technique, gouvernance, compétences, culture de l’expérimentation.
– Créent un Centre d’Excellence IA fédérateur, avec relais métiers, standards communs et documentation ouverte.
– Instaurent une gouvernance des modèles cohérente, alignée sur les cadres du NIST et les principes de l’AI Act, avec des responsables produits côté métier.
– Pratiquent les évaluations systématiques avant déploiement, comme le recommande OpenAI (OpenAI Evals).
– Intègrent l’IA dans les outils existants, CRM, ERP, usine logicielle, support au lieu de la laisser vivre en périphérie.
– Investissent massivement dans la formation et l’appropriation : programmes internes, communautés, “power users”, incitations à explorer.
– Et, surtout, traitent les MLOps et ModelOps comme un sujet stratégique, pas technique : suivre et maintenir les modèles dans le temps (dérive, mises à jour, sécurité, conformité, traçabilité) pour éviter qu’ils ne se dégradent ou deviennent incontrôlables.

Là où l’IA fonctionne ça n’est pas parce que l’entreprise a choisi la bonne technologie, mais parce qu’elle s’est dotée d’une capacité collective d’apprentissage continu.

Les angles morts des approches d’adoption actuelles

Toutes ces approches ne sont toutefois pas exemptes de reproches et d’angles morts et voici ceux qui sont, à mon amis, les plus notables.

La linéarité d’abord : les frameworks décrivent un chemin « parfait », stratégie, diagnostic, cas d’usage, gouvernance, scale alors que la réalité est toute contraire et les études de terrain montrent des trajectoires discontinues, faites de retours en arrière, de pivots, de contournements et de consolidations successives. Ces cadres offrent une grille de lecture utile, mais ne capturent ni la dynamique réelle des organisations, ni les tensions internes qui accompagnent toute adoption technologique. Ils modélisent un idéal d’avancement progressif, là où la pratique ressemble davantage à une succession d’ajustements, de compromis et de réorientations (Maturity models for the use of artificial intelligence in enterprises: a literature review).

Le techno-centrisme ensuite : nombre de cadres restent obsédés par la donnée, les modèles et la sécurité. Un discours technologique suprémaciste domine dans l’IA qui suppose que la technologie peut résoudre automatiquement des problèmes complexes, ce qui est précisément l’un des biais du techno-centrisme (Tracing the Techno-Supremacy Doctrine: A Critical Discourse Analysis of the AI Executive Elite).

Troisième angle mort : la mesure biaisée de la valeur. Des travaux montrent des gains réels mais très localisés. Il y a bien une amélioration de la productivité sur des tâches bien structurées, mais aussi un déplacement de la charge vers la supervision et la vérification, avec parfois une baisse temporaire de performance collective (How generative AI can boost highly skilled workers’ productivity). Il y a, dans l’état actuel des choses, un consensus sur le fait que des gains individuels coexistent avec des coûts invisibles : contrôle, réécriture, coordination accrue (Generative AI at work).

Cela nous ramène à la notion d' »Impact gap » du BCG : on confond souvent temps gagné sur une micro-tâche et valeur réellement créée au niveau du système (From Potential to Profit: Closing the AI Impact Gap et Optimum local vs optimum global et théorie des contraintes : pourquoi vos gains de productivité ne servent parfois à rien).

Quelques remarques

Ce que je reproche à ces méthodologies n’est pas leur contenu, souvent pertinent et techniquement juste, mais leur place dans la dynamique de changement. Elles arrivent trop tôt et trop haut, comme si l’on pouvait déployer l’IA en suivant une recette, alors qu’elles ne prennent sens qu’une fois l’intention, le design du travail et les arbitrages organisationnels déjà clarifiés. Autrement dit on prend pour des boussoles ce qui n’est que des outils d’exécution.

L’écran du fumée du ROI

Le ROI est une mesure, pas une fin en soi et ne dit rien de la pertinence d’une transformation, seulement de sa rentabilité apparente. Les cadres qui promettent des « business cases IA » reproduisent souvent la même erreur que celle du digital : confondre adoption avec performance et productivité (La grande illusion des gains de productivité technologiques (IA comprise)).

Le design d’entreprise doit passer avant la technologie

La méthode n’a de valeur que dans un système déjà conçu pour tirer parti de la technologie. Les frameworks IA arrivent souvent trop tard : ils modélisent la « bonne façon » de déployer une technologie dans une organisation qui n’a jamais défini son propre rapport au travail et ce faisant on comment deux erreurs. La première est d’automatiser une organisation dysfonctionnelle qui va ainsi dysfonctionner plus vite et à plus grande échelle et la seconde de se laisser dicter une certaine vision des opérations et du travail par la philosophie de l’outil si on a pas, au préalable, posé sa propre intention (Reprendre la main sur le design d’entreprise : l’intention avant les outils).

On ne déploie pas l’IA dans le vide : il faut une intention, une vision du design d’entreprise et du du travail.

L’adoption comme appropriation du travail

J’ai toujours défendu l’idée que l’adoption n’est pas une utilisation mais une appropriation. On peut parfaitement utiliser un outil sans que rien ne change réellement dans la manière de travailler, dans les arbitrages ou dans la façon d’articuler l’activité collective. La plupart des frameworks confondent usage et adoption, comme si le simple fait d’utiliser un outil ou une fonctionnalité suffisait à produire de la valeur.

Pour moi, l’adoption est tout autre chose : c’est une capacité nouvelle d’exercer son jugement, de décider, de concevoir différemment son travail et je parle à ce sujet d’ailleurs souvent d’appropriation productive. C’est la transformation des gestes, des décisions, des flux et des responsabilités, pas l’ajout d’un outil de plus dans une liste déjà longue. L’appropriation productive suppose que l’IA est l’occasion de revoir la manière de voir le travail ce qui est le préalable indispensable la transformation de la manière dont on l’exécute.

L’IA, test du design d’entreprise

En définitive, l’adoption de l’IA est un révélateur. Si le design d’entreprise est clair entre intentions, rapport au travail, design du travail, cohérence avec l’identité et l’ADN de l’entreprise les méthodologies d’adoption de l’IA trouve naturellement leur place mais, à défaut, elles deviennent des cache-misère.

Le bon ordre serait plutôt : 

  1. intention
  2. design d’entreprise
  3. choix de méthodologie
  4. outillage

Et en aucun cas l’inverse.

Conclusion

L’IA met les entreprises devant un miroir. Les plus mures y voient une opportunité d’apprendre à nouveau, à commencer par apprendre ce qu’elles sont pour réfléchir à ce qu’elles veulent être. Les autres s’y voient à travers leurs frameworks et pensent qu’elles seront aussi capables d’adopter l’IA que leur framework a l’air complet et sérieux. Les méthodologies sont nécessaires, les best practices utiles, les diagnostics indispensables mais tout cela reste secondaire face à la question centrale : que veut-on devenir et comment veut on opérer ?

Si l’on ne sait pas y répondre, alors aucune méthode, aucune plateforme ne pourra vous guider.

L’adoption de l’IA n’est pas une fin mais c’est une discipline qui consiste à repenser le travail avant de l’automatiser ou l' »augmenter » par la technologie.

Pour répondre à vos questions…

Comment l’IA aide-t-elle les entreprises à clarifier leur identité ?

L’IA oblige les organisations à revisiter ce qu’elles sont et ce qu’elles veulent devenir. Elle met en lumière leurs forces, leurs limites et leurs incohérences opérationnelles. Les entreprises les plus matures utilisent cette occasion pour réapprendre, préciser leurs priorités et aligner leur évolution sur une intention claire. Cette introspection précède toute démarche technologique, car l’IA n’apporte de valeur que lorsque le cap stratégique est défini. Pour les décideurs, cette clarification conditionne la pertinence des initiatives futures.

Pourquoi les méthodes et frameworks ne peuvent-ils pas guider l’adoption de l’IA à eux seuls ?

Les frameworks structurent et sécurisent une démarche, mais ils restent secondaires tant que l’entreprise n’a pas défini ce qu’elle veut devenir. Sans vision, ces outils produisent des démarches mécaniques ou décoratives qui ne transforment rien. L’article souligne que les méthodologies sont utiles mais insuffisantes si l’objectif n’est pas clair. Elles ne remplacent ni l’intention stratégique ni la réflexion sur la manière d’opérer. Pour les responsables, la priorité est d’établir le sens avant de sélectionner une méthode.

Quels sont les risques d’adopter l’IA sans intention précise ?

Une adoption sans intention entraîne des projets dispersés, une complexité inutile et des investissements peu productifs. L’entreprise risque de s’aligner sur des solutions parce qu’elles semblent complètes, et non parce qu’elles répondent à un besoin réel. Le résultat est une transformation superficielle, parfois coûteuse, qui ne fait pas évoluer le travail. L’article insiste sur l’impossibilité pour une plateforme ou une méthode de compenser un manque de vision. Pour les décideurs, clarifier l’ambition réduit ces dérives.

En quoi l’adoption de l’IA est-elle une discipline plutôt qu’un objectif ?

L’IA n’est pas une finalité mais une démarche consistant à repenser le travail avant d’automatiser. Cette discipline implique d’examiner les processus, de comprendre la valeur créée et d’ajuster la manière d’opérer avant toute intervention technologique. Elle nécessite observation, apprentissage et réévaluation continue. L’IA devient ainsi le support d’une transformation du travail plutôt qu’un but à atteindre. Pour les dirigeants, adopter cette approche garantit une évolution plus cohérente et durable.

Comment les organisations les plus matures abordent-elles l’intégration de l’IA ?

Les entreprises les plus mûres voient l’IA comme une opportunité de réapprendre et de mieux comprendre leur fonctionnement. Elles ne se reposent pas sur des frameworks pour légitimer leurs choix, mais utilisent l’IA pour affiner leur stratégie et renforcer leur manière d’opérer. Cette posture les distingue : elles relient la technologie à une intention claire et à une transformation du travail. Elles évitent ainsi les démarches superficielles. Pour les décideurs, cette maturité favorise une adoption plus efficace.

Crédit visuel : Image générée par intelligence artificielle via ChatGPT (OpenAI)

Bertrand DUPERRIN
Bertrand DUPERRINhttps://www.duperrin.com
Directeur People & Operations / Ex Directeur Consulting / Au croisement de l'humain, de la technologie et du business / Conférencier / Voyageur compulsif.
You don’t speak french ? No matter ! The english version of this blog is one click away.
1,743FansJ'aime
11,559SuiveursSuivre
31AbonnésS'abonner

Récent