Il y a un point commun entre la majorité des usages d’IA qui échouent en entreprise. Ils ne s’effondrent pas parce qu’ils ne fonctionnent pas, ni même parce qu’ils n’apportent pas de valeur mais au moment où ils cessent d’être tolérables dans le cadre existant. Le passage à l’échelle agit ici moins comme un accélérateur que comme un révélateur.
Ce qui tenait tant que l’usage restait peu exposé peut se fragiliser quand il devient plus exposé et change d’échelle. Ce qui était acceptable tant qu’il restait réversible et ne concernait qu’un petit périmètre avec des couts controlés et donc une exigence relative en termes de ROI devient problématique dès qu’il engage l’organisation au-delà d’une phase d’expérimentation.
En bref :
- Les usages d’IA échouent souvent non par inefficacité, mais lorsqu’ils deviennent incompatibles avec les cadres organisationnels existants, notamment lors du passage à l’échelle qui agit comme révélateur de tensions latentes.
- À l’échelle individuelle, l’IA est bien acceptée car elle reste discrète, réversible et peu engageante. Mais dès qu’un usage devient collectif, il soulève des enjeux de conditions d’usage, d’impact et de gouvernance qui fragilisent sa pérennité.
- L’exposition accrue de l’IA dans l’organisation soulève des questions de responsabilité, d’imputation des décisions et d’effets de bord, pour lesquelles les entreprises ne sont pas toujours prêtes à apporter des réponses structurées.
- La montée en puissance de l’IA rend nécessaires la coordination et la formalisation des règles, ce qui expose des désalignements internes et remet en cause les usages basés sur l’autonomie implicite.
- Le passage à l’échelle implique un changement de logique budgétaire et stratégique : la question n’est plus seulement celle de la productivité locale, mais de l’impact global sur le revenu et la dépendance organisationnelle, rendant certains usages insoutenables.
L’usage devient collectif
Tant que l’IA est utilisée à l’échelle individuelle elle s’insère sans friction notable. Elle aide, soulage, optimise ponctuellement mais, surtout, n’impose rien aux autres (Ce qui fonctionne aujourd’hui avec l’IA sans effort particulier). Cela fonctionne quasiment tout seul, d’où le succès du shadow IT et même si cela n’apporte que des gains limités on peut se dire que c’est un bon début (L’appropriation collective de l’IA seule condition d’impact tangible).
Dès qu’un usage doit être étendu il change de nature. Il ne s’agit plus seulement de savoir si cela fonctionne, mais de déterminer qui peut l’utiliser, dans quelles conditions et avec quels effets pour les autres. Cela suffit alors à fragiliser des dispositifs qui fonctionnaient précisément parce qu’ils évitaient ces questions.
C’est à ce moment que de nombreux usages disparaissent. Non parce qu’ils sont inefficaces, mais parce qu’ils étaient viables tant qu’ils contournaient l’organisation et plus lorsqu’ils devaient s’y inscrire.
L’IA devient visible
Un autre point de rupture apparaît lorsque l’IA cesse d’être un sujet de découverte pour devenir un sujet de discussion, notamment quand se posent la question des coûts et des impacts et autres effets de bord. Ce qui était accepté dans un contexte de découverte, de prise en main, doit alors être justifié.
Là aussi cela fait émerger des questions qui étaient évitées jusqu’alors. Pourquoi ici et pas ailleurs. Sur quels critères. Avec quels effets de bord. A partir de quel moment l’outil influence une décision. Beaucoup d’usages ne résistent pas à cette exposition, non parce qu’ils sont mauvais, mais parce qu’ils posent des questions auxquelles l’entreprise n’a pas l’envie ou la maturité pour répondre.
L’IA touche à la décision
Tant que l’IA prépare, suggère ou assiste elle reste largement tolérée car reste dans un registre où la décision finale peut toujours être attribuée à un humain identifiable. Lorsque ce seuil est franchi ça n’est plus la même histoire.
En effet lorsque l’IA influence directement une décision engageante, la question centrale n’est plus celle de la performance mais celle de l’imputation et donc de la responsabilité. Qui décide réellement. Qui assume lorsque le résultat est contesté. Qui peut s’écarter de la recommandation, et à quelles conditions. Tant que ces sujets restent dans une zone grise, sans une sorte de gouvernance, l’organisation se retrouve sur un terrain instable.
Beaucoup de dispositifs disparaissent à ce moment-là par retrait progressif, par réduction de périmètre, par retour à des usages qui bien que plus modestes sont plus sûrs politiquement.
La coordination devient inévitable
Les usages locaux fonctionnent aussi parce qu’ils ne forcent pas la coordination. Ils se glissent dans une brèche avec des règles tacites et des compromis implicites mais, à plus grande échelle, ces compromis doivent être formalisés et devenir des règles.
L’IA rend alors visibles des désalignements qui perduraient depuis des année. Ce qui disparaît dans ces cas ce sont les usages qui reposaient sur une autonomie non négociée. Mais dès que cette autonomie doit être discutée elle se heurte aux logiques de pouvoir et de chasses gardées.
L’échec n’est pas technique mais organisationnel et, s’il ne dit rien de nouveau, il révèle simplement ce qui existait avant et dont tout le monde s’était accommodé.
Le I du ROI fait peser des exigences sur le R
Le propre d’une phase de découverte ou d’expérimentation c’est un périmètre réduit, un budget défini et quelque part une sorte d’acceptation que ça ne peut ne pas fonctionner et qu’on aura investi à perte. Mais lorsque l’expérimentation est peu près concluante et que se pose la question du passage à l’échelle la discussion budgétaire change de nature.
Oui cela marche « à peu près » à petite échelle mais si on veut passer à l’échelle avec un investissement 100 ou 1000 fois plus important le ROI sera-t-il du même ordre ou exponentiel ? Et s’il est du même ordre cet argent ne serait-il pas mieux investi ailleurs ?
C’est un peu ce que nous dit l’étude du MIT dont tout le monde a beaucoup parlé l’an dernier. Des pilotes massivement abandonnés non parce qu’ils ne fonctionnaient pas mais parce qu’ils n’avaient pas d’impact clair et direct sur le revenu (Les technologies vendent de la productivité, mais les entreprises veulent du revenu).
Dit autrement un pilote essaiera de monter de manière plus ou moins empirique des gains de productivité mais le passage à l’échelle déplacera la sujet vers le P&L.
L’usage cesse d’être réversible
Un dernier seuil est celui de la réversibilité. Tant qu’un usage peut être retiré sans conséquence majeure il est toléré car reste dans un registre expérimental. Lorsqu’il devient difficile à supprimer sans perturber une activité il oblige l’organisation à reconnaître une dépendance et se heurte à l’opposition des moins convaincus voire des opposants qui veulent conserver une porte de sortie.
Certains usages disparaissent à ce moment parce qu’ils obligeraient à admettre qu’un changement a eu lieu sans avoir été explicitement décidé et qu’on doive alors composer avec une situation qu’on a pas recherché. Le retrait devient alors une manière de reprendre le contrôle, au prix d’un retour en arrière rarement assumé comme tel et qu’on imputera à d’autres causes.
Conclusion
Les usages qui disparaissent lorsque l’IA doit changer d’échelle dessinent une cartographie assez cohérente des plafonds auxquels se heurtent les organisations. Plafond de visibilité, de responsabilité, de coordination, d’engagement durable et bien sûr de financement.
Ces disparitions ne disent pas que l’IA ne fonctionne pas mais montrent que dès qu’elle cesse de se glisser dans les interstices, elle oblige l’entreprise à se regarder fonctionner et c’est souvent à ce moment-là que le mouvement s’arrête.
Pour répondre à vos questions…
Les usages d’IA disparaissent rarement parce qu’ils ne fonctionnent pas, mais parce qu’ils cessent d’être compatibles avec l’organisation existante. À petite échelle, ils restent discrets, peu coûteux et réversibles. En changeant d’échelle, ils rendent visibles des enjeux de gouvernance, de responsabilité, de coordination et de financement que l’entreprise n’est pas prête à traiter, ce qui provoque leur abandon.
A l’échelle individuelle, l’IA n’impose rien aux autres et contourne les contraintes organisationnelles. Elle apporte un gain local sans créer de dépendance collective. Dès qu’un usage devient collectif, il faut définir des règles, des droits et des impacts partagés. Ces arbitrages fragilisent des dispositifs qui fonctionnaient justement parce qu’ils évitaient toute formalisation.
Tant que l’IA reste expérimentale, elle bénéficie d’une tolérance implicite. Lorsqu’elle devient visible, ses coûts, ses effets et ses critères de déploiement doivent être justifiés. Cette exposition force l’entreprise à répondre à des questions qu’elle avait évitées. Beaucoup d’usages échouent à ce stade, non par manque de valeur, mais par manque de maturité organisationnelle.
Lorsque l’IA assiste, la responsabilité reste humaine et claire. Lorsqu’elle influence directement une décision engageante, la question de l’imputation devient centrale. Sans règles explicites sur qui décide et qui assume, l’organisation entre dans une zone grise. Pour éviter ce risque, les usages sont souvent réduits ou abandonnés.
En pilote, un ROI approximatif et un échec possible sont acceptables. A grande échelle, l’investissement impose un impact clair sur le P&L. Si ce lien n’est pas démontré, l’IA est remise en cause. De plus, la perte de réversibilité crée des résistances, le retrait devenant un moyen de reprendre le contrôle.
Crédit visuel : Image générée par intelligence artificielle via ChatGPT (OpenAI)








