En mars dernier je me posais la question de savoir si l’IA générative relevait d’une révolution durable ou d’une bulle spéculative (L’IA vers une impasse économique ?). J’y faisais part d’un optimisme prudent mais toutefois confiant. Je voyais bien les zones d’ombre et les premières dérives mais m’interrogeais surtout sur la capacité des acteurs du marcher à démontrer assez de valeur pour passer leurs coûts à leurs clients pour devenir rentables. Mais j’étais assez confiant qu’au fil du temps on allait trouver des usages solides et bâtir des modèles économiques qui tenaient la route.
Mais quelques mois plus tard, le paysage a changé. Pas beaucoup mais assez, en tendance, pour que je jette un nouveau regard sur le sujet.
Non, l’IA générative n’a pas échoué. Elle progresse même, les modèles s’améliorent, le champ des usages s’élargit mais quelque chose s’est cassé dans le réci et le doute s’installe. Sur les promesses, sur l’impact réel, sur la capacité du secteur à tenir ses engagements notamment techniques et économiques. Et il ne s’agit plus seulement de prudence naturelle face à une technologie encore jeune mais de constater qu’un certain seuil d’insoutenabilité est peut-être déjà franchi.
Ce que l’on nous présentait comme une trajectoire de croissance linéaire semble désormais plus proche d’une surchauffe nourrie moins par les résultats que par l’anticipation de résultats futurs. Un emballement dû non pas à la valeur delivrée mis à l’espérance de valeur future. On mise massivement sur une technologie sans s’assurer qu’elle dispose des conditions minimales de soutenabilité et, faute de modèle clair, la croyance en devient le principal carburant (AGI, emploi, productivité : le grand bluff des prédictions IA).
Aujourd’hui, l’écart entre ce que coûte l’IA générative, ce qu’elle promet, et ce qu’elle produit réellement s’accroit et tout l’écosystème semble avancer, comme ça a toujours été le cas dans ces circonstances similaires, en espérant que quelqu’un d’autre trouvera la réponse avant d’être confronté au principe de réalité.
Ce n’est pas une prédiction catastrophiste car au fond de moi je me refuse à penser que cela ne va pas marcher mais une lecture rationnelle des signaux faibles qui, mis bout à bout, devraient nous apprendre à tempérer nos attentes et que même si, espérons le, le secteur ne s’effondre pas il ne pourra pas faire l’économie d’une reconfiguration.
En bref :
- L’IA générative progresse techniquement mais rencontre des limites économiques structurelles : coûts élevés d’entraînement et d’usage, difficulté à monétiser, faible fidélisation des utilisateurs et dépendance aux géants de la tech pour la distribution.
- Le modèle économique repose davantage sur des anticipations et des effets d’annonce que sur une valeur réellement captée, créant une dynamique spéculative semblable à la bulle internet des années 2000.
- Les acteurs historiques (Microsoft, Google, Amazon) intègrent l’IA dans leurs écosystèmes existants sans modèle de rentabilité clair, tandis que les pure players comme OpenAI ou Anthropic peinent à équilibrer leurs finances.
- Un réalignement progressif est en cours : rationalisation des projets, réduction des budgets, concentration sur des usages ciblés et industriels, au détriment des ambitions de transformation globale.
- L’IA générative entre dans une phase de banalisation et d’intégration, devenant un outil d’optimisation métier plutôt qu’un moteur de rupture économique ou technologique.
Et avant toute chose je tiens à préciser une fois encore qu’ici on parle bien d’IA générative. Il y a une tonne de types d’IA qui fonctionnent très bien (L’IA pour les nuls qui veulent y voir un peu plus clair), avec un ROI avéré, qui sont rentables pour toute la chaine de valeur et que l’on utilise, pour certaines d’entre elles, depuis des années sans même le savoir et qui ne soulèvent aucune question sauf, éventuellement, de savoir si un jour on ne risque pas de jeter le bébé avec l’eau du bain.
Des fondations plus fragiles qu’on ne voulait le croire
En dépit des projections enthousiastes mais qui ne reposent sur aucune méthodologie solide (voir ci-dessus) et des démonstrations à couper le souffle dont les éditeurs ont le secret il devient devient de plus en plus évident que le modèle économique de l’IA générative est bancal. Pas seulement parce qu’il est jeune et et immature mais parce qu’il repose sur des hypothèses ou coûts, valeur et revenus ne s’alignent pas. Un déséquilibre pointé par de plus en plus d’observateurs qui est, malheureusement, structurel.
Commençons par les coûts. L’entraînement d’un modèle comme GPT-4 aurait coûté plus de 100 millions de dollars (The Extreme Cost Of Training AI Models) mais c’est surtout l’inférence, c’est à dire chaque requête d’un utilisateur qui reste couteuse, de $0,01 à $0,1 (How much does GPT-4 cost?) en fonction de lasacomplexité. Contrairement au modèle Saas ou aux services financés par la publicité en ligne, ici, plus on utilise le service plus il coûte cher au fournisseur sans qu’il n’y ait d’effet d’échelle automatique.
En face de cela, la capacité à faire payer les utilisateurs et donc de leur passer les couts est plus que limitée. Le grand public se limite à des offres à $20 par mois comme ChatGPT plus et les entreprises, de leur côté, ont du mal de justifier des des coûts élevés pour des gains souvent difficiles à mesurer. D’après une étude IBM seuls de 25% des projets IA atteignent aujourd’hui les objectifs de rentabilité (Will genAI businesses crash and burn?). L’essentiel des gains, quand il y en a, relève de la réduction des coûts et d’automatisations très ciblées ce qui explique également que les secteurs à faible marge ne peuvent se payer le luxe d’investir massivement dans l’IA (The disconnect between AI spend and potential).
A cela s’ajoute une pression déflationniste venue du monde open source avec des modèles comme Mistral, LLaMA ou Phi peuvent être déployés localement, à moindres coûts, avec des performances très compétitives. Un mouvement qui est, peut être, encore minoritaire mais est en train de tirer les prix vers le bas. L’entreprise qui peut internaliser un modèle open source n’a aucune raison de payer cher une API à coût variable. Le résultat est prévisible :le prix unitaire d’un token baisse, sans que les coûts d’infrastructure des acteurs privés ne suivent la même tendance.
Le rapport de force est donc en train de se renverser. Alors qu’on pensait l’IA générative capable de désintermédier les géants de la tech elle est en train d’être elle-même absorbée dans des plateformes qui détiennent alors sa distribution. Google intègre Gemini à Search, Gmail et Android, Microsoft impose Copilot dans Windows et Office 365, Amazon inclut ses briques IA dans AWS. En face de cela les nouveaux acteurs ne possèdent ni l’interface, ni la plateforme, ni la base installée et dépendent de ceux qui contrôlent les points d’entrée.
On le voit très bien avec OpenAI qui bien qu’ayant popularisé le concept d’agent conversationnel avec ChatGPT dépend presque totalement de Microsoft pour son cloud (Azure), pour sa distribution (Copilot), et même pour son support technique dans les entreprises. C’est Microsoft qui facture, Microsoft qui embarque, Microsoft qui encadre et dans ce schéma OpenAI n’est qu’un moteur.
Un moteur qui n’est même pas captif. Les utilisateurs peuvent facilement aller voir ailleurs. D’un modèle à l’autre, la friction est faible, l’usage interchangeable et contrairement aux grandes plateformes historiques, l’IA générative n’a pas de verrouillage structurel. Pas de réseau social, pas d’écosystème fermé, pas de dépendance croisée.
De plus la « fidélité cognitive » est très faible : les statistiques d’usage montrent que la plupart des utilisateurs exploitent ces IA pour des tâches comme la rédaction de messages, la gestion de calendriers, ou la génération de contenus (mémos, emails), qui relèvent d’une assistance ponctuelle ou d’une optimisation de tâches individuelles plutôt que d’une transformation structurelle des workflows (AI Assistant Statistics 2025: How AI is Transforming Workflows and Productivity). De plus les particuliers passent d’une IA à l’autre pour essayer, souscrivent et annulent leurs abonnements à chaque expérimentation ce qui signifie que les prévisions de revenu ne veulent plus dire grand chose (L’ARR ne dit plus grand-chose sur la santé d’une startup).
Résultat : les modèles supportent les coûts, mais ne captent ni d’usage durable, ni de revenu récurrent. De la même manière que durant la ruée vers l’or les seuls à avoir gagné de l’argent sont les marchands de pioches, la seule à gagner quoi que ce soit dans cette histoire est Nvidia, dont les marges records (supérieures à 75 % sur les GPU dédiés à l’IA) sont aujourd’hui financées par une économie encore incapable de prouver sa viabilité (Big Tech’s AI spending boom increases risk of a bust).
Un modèle structurellement non rentable
On présente les pertes financières des acteurs de l’IA comme une question de cycle en laissant entendre qu’il faut laisser le temps au marché de maturer, aux usages de s’ancrer et aux investissements de se transformer en chiffre d’affaire. Et c’est vrai que c’est ainsi que les choses ont toujours fonctionné dans le monde de la tech mais dans le cas de l’IA on peut avoir des doutes car le problème n’est pas conjoncturel mais structurel.
Encore une fois on nous cite souvent l’exemple de Google ou d’Amazon mais ces entreprises ne voyaient pas leur couts augmenter proportionnellement aux usages et c’était même plutôt l’inverse.
Ca n’est pas parce que cela a fonctionné pour un type d’entreprise et de technologie que cela fonctionnera donc pour tous.
Les modèles de langage de grande taille (LLM) ne sont pas des plateformes. Ce sont des infrastructures computationnelles intensives, qui consomment énormément à l’entraînement comme à l’usage. GPT-4, Claude 3 ou Gemini 1.5 ne sont pas comparables à un moteur de recherche ou un logiciel cloud : leur coût marginal ne diminue pas avec le volume, pire, il augmente. Chaque utilisateur supplémentaire, chaque requête, chaque millier de tokens a un coût énergétique et matériel significatif (There Is No AI Revolution).
Le problème c’est que les revenus ne suivent pas. OpenAI aurait généré environ 4 milliards de dollars en 2025, mais dans le même temps, la société aurait vu ses dépenses croitre à environ 9 milliards de dollars sans parvenir à équilibrer son modèle (Will genAI businesses crash and burn?). Et pour ce qui est du futur les analystes s’inquiètent qu’en dépit d’une croissance du revenu l’entreprise continue à voir ses dépenses croitre proportionnellement, sachant de plus que la grande majorité des utilisateurs ne paient rien (OpenAI’s profit trajectory is an open question).
Anthropic, soutenue par Amazon et Google, connaît une situation similaire. Valorisation autour de 15 milliards de dollars pour, selon les sources, moins de 150 millions de chiffre d’affaires annuel. Là encore, les multiples sont typiques d’un pari spéculatif et pas d’une entreprise structurellement viable.
Qu’on soit clairs : chaque utilisateur nouveau, chaque requête, ne rapproche pas ces entreprises de la rentabilité mais contribue à creuser leurs pertes.
En parallèle, les revenus sont largement captés par les wrappers dont je vous ai parlé dernièrement (Wrappers, deeptechs et IA générative : un château de cartes rentable mais fragile). La majorité des revenus d’OpenAI provient des abonnements directs à ChatGPT (Plus, Teams, Business…), représentant plus de 70 % du chiffre d’affaires, tandis que la vente d’accès API (utilisée par les intégrateurs comme Notion, Canva, Copilot, Salesforce, etc.) ne représente qu’environ 15 à 20 % du total alors que c’est la grande majorité des usages. Cela signifie que la valeur générée par les usages intégrés dans d’autres outils remonte principalement à ces plateformes finales, et non à OpenAI elle-même (OpenAI Is A Bad Business) et ce d’autant plus que l’accès aux APIs est souvent vendu à perte (The Subprime AI Crisis) pour en stimuler l’usage qui malgré tout peine à décoller.
Même lorsque les acteurs IA sont présents dans les produits finaux, ils ne maîtrisent ni le pricing, ni la distribution, ni la relation client. OpenAI dans Copilot, Claude dans Notion, Gemini dans Gmail : à chaque fois, l’IA est intégrée mais invisible. C’est Microsoft, Google, Amazon qui commercialisent, qui facturent, qui fidélisent, captent la valeur ajoutée et peuvent de plus changer de fournisseurs d’IA comme bon leur semble.
Et ce que ces mêmes wrappers découvrent aujourd’hui, c’est que la rentabilité n’est pas plus évidente de leur côté. Copilot, qui devait être la démonstration de force de Microsoft dans la productivité augmentée, peine à s’imposer : 60% des entreprises ont testé Copilot, 16% seulement sont passées en phase de déploiement (How to get Microsoft 365 Copilot beyond the pilot stage). Beaucoup d’organisations commencent par acheter un nombre limité de licences, souvent pour tester Copilot sur quelques équipes pilotes, puis hésitent à généraliser, faute de retour d’expérience convaincant.
Que ce soit du côté de Microsoft comme de Salesforce, les revenus générés par l’IA sont faibles et les projections peu engageantes (Reality Check). Mais Microsoft et ses semblables ont un avantage considérable par rapport à OpenAi et consorts : en plus d’être en frontal face au client et de contrôler la distribution d’une partie des pure players ils ne sont pas monoproduits : ils ont des vaches à lait qui peut leur permettre de financer leurs efforts dans l’IA pendant des années le temps que marché devienne mature, un temps que les autre n’auront pas.
Aujourd’hui 66% des pilotes ne passent pas en production pour des raisons d’immaturité et de ROI (88% of AI pilots fail to reach production — but that’s not all on IT) et seulement 25 % des initiatives en matière d’IA ont généré le retour sur investissement escompté au cours des dernières années, avec seulement 16 % qui ont été déployées à l’échelle de l’entreprise (IBM Study: CEOs Double Down on AI While Navigating Enterprise Hurdles).
Dans ce contexte, les coûts continuent d’augmenter, et les entreprises clientes, elles, commencent à se lasser de tester des outils dont elles peinent à démontrer l’impact économique car la productivité promise n’est pas au rendez-vous (Workday CEO: ‘For all the dollars that’s been invested so far, we have yet to realize the full promise of AI’) avec des investissements qui croissent, mais sans que la production nette par travailleur n’augmente proportionnellement (AI’s productivity paradox: how it might unfold more slowly than we think).
Résultat : les modèles sont coûteux, la valeur perçue reste nébuleuse, la fidélité utilisateur est faible, la rentabilité industrielle est incertaine… et les seuls à dégager des marges nettes dans ce système sont les vendeurs d’infrastructure à savoir Nvidia, évidemment, mais aussi Microsoft, Amazon, Google, non pas grâce à l’IA, mais grâce au cloud, à la bande passante, aux GPU. C’est une logique de rente sur la dépendance matérielle, pas sur la valeur logicielle.
Soyons clairs : je ne dis pas que l’IA n’a pas de valeur, n’apporte rien, je suis même intimement convaincu du contraire. Je me borne simplement à constater que vu les bénéfice perçus les entreprises et les utilisateurs individuels ne sont pas prêts à payer le prix qui permettrait aux fournisseurs d’IA de devenir rentables un jour, quand une partie de ce prix n’est d’ailleurs pas capté par des intermédiaires.
Il y a une indéniable asymétrie entre les bénéfices de l’IA et les investissements nécessaires à leur obtention et le caractère structurel de cette dernière pourrait bien mener à une impasse.
Une bulle entretenue par des croyances mais pas par des faits
Ce n’est pas la première fois que la tech fonctionne davantage sur la croyance que sur les résultats. Ce n’est pas non plus la première fois qu’un secteur entier parie sur une promesse, sans vérifier si les conditions économiques sont réunies pour la tenir mais dans le cas de l’IA générative, l’écart entre les attentes et la réalité (AGI, emploi, productivité : le grand bluff des prédictions IA) commence à devenir difficile à ignorer.
Les chiffres parlent : multiples de valorisation sans lien avec les revenus, tours de table massifs sur des projections invérifiables, pression continue pour alimenter une croissance encore théorique.
Anthropic en est un excellent exemple : une valorisation estimée à 15 milliards de dollars pour à peine 100 à 150 millions de chiffre d’affaires annuel. Une structure ultra-financée, mais dont le modèle repose encore essentiellement sur des financements conditionnés et des accords d’intégration avec des géants comme Amazon, Google, Salesforce ou Zoom.
OpenAI, de son côté, fait figure de vitrine mondiale… mais continue de perdre plusieurs milliards de dollars par an, malgré une adoption spectaculaire de ChatGPT. Quant à ses agents dont elle espère tirer $3 milliards de revenus en 2025 il semble qu’ils proviendront d’un seul client, à savoir Softbank, qui se trouve être actionnaire d’OpenAI (Reality Check). Un peu comme si votre banque vous achetait vos produits pour faire croire au monde que vous allez bien et en plus cette activité sera probablement déficitaire elle aussi.
Le parallèle avec la bulle Internet du début des années 2000 n’est pas abusif. L’IA générative est financée sur des promesses d’avenir, pas sur des actifs solides (The Dot-Com Bubble vs. The AI Boom: Lessons for Today’s Market), l’effet de réseau y est faible, la fidélisation client incertaine, et la dépendance au capital externe extrême même si je vois des différences notables comme « des cas d’usage clairs et souvent très B2B, les modèles économiques sont connus et éprouvés avec une manière claire de faire du revenu (même si insuffisants) et, surtout, les gouvernements supportent le secteur. » (L’IA vers une impasse économique ?).
Ce qui alimente cette dynamique, c’est un mécanisme bien connu du capital-risque : le FOMO (fear of missing out). Personne ne veut rater le prochain Google. Le résultat, c’est une course à la valorisation où les modèles de revenus importent peu, pourvu que la trajectoire apparente soit exponentielle.
Ce qui soutient aujourd’hui la bulle IA, ce n’est pas la valeur livrée par les produits mais le narratif d’une rupture inévitable (Is the AI Revolution Already Losing Steam?), d’un basculement technologique auquel il faudrait croire avant même qu’il ne se concrétise.
Cette dynamique est renforcée par le fait que les grands acteurs ont tout intérêt à entretenir cette illusion du passage obligé. Microsoft, Amazon, Google, tous intègrent massivement des fonctions IA dans leurs produits sans hausse de prix toujours visible. Non pas parce qu’elles sont immédiatement rentables, mais parce qu’elles renforcent leur emprise sur les écosystèmes et laissent penser que tout se jouera chez eux.
On vend l’idée d’une transformation en cours, alors qu’il s’agit, le plus souvent, d’un packaging cosmétique ou d’un rebranding intelligent.
Et même chez les acteurs qui s’étaient engagés dans des usages IA concrets avec des cas d’usage bien pensées, les limites apparaissent. Le cas de Klarna est sur ce point intéressant : après avoir annoncé en fanfare l’automatisation d’une partie de son support client grâce à des agents IA, la société a dû reconnaître que les résultats n’étaient ni aussi réplicables, ni aussi transformateurs qu’escomptés et que si ils avaient calculé les gains ils avaient sous estimé ce qu’ils avaient à perdre (Klarna nous montre les limites des agents IA).
On voit peu à peu le vent tourner. Des projets sont gelés, des roadmaps sont revues et les plans de déploiement se ralentissent. Selon The Times, plusieurs projets de data centers géants prévus pour absorber la vague IA auraient été suspendus ou redimensionnés dès le premier trimestre 2025 (Big Tech’s $340bn AI spending boom increases risk of a bust) comme par exemple chez Amazon (Amazon has halted some data center leasing talks, Wells Fargo analysts say) et il semble que ce soit une tendance générale dans le secteur.
Enfin, même côté des utilisateurs finaux, le phénomène de fatigue cognitive commence à se faire sentir. L’effet « wow » des débuts s’estompe. ChatGPT, Claude ou Copilot sont certes encore utilisés, mais moins pour transformer que pour assister. Ce sont devenus des outils ponctuels, pas des agents de transformation.
L’IA semble donc avoir atteint le pic de ses promesses, sans que la réalité ne suive (AI’s productivity paradox: how it might unfold more slowly than we think)
Autrement dit : tout le monde continue à jouer mais plus personne ne regarde vraiment le tableau de score.
Et après ? Explosion ou atterrissage ?
Les bulles technologiques ne finissent pas toujours par une explosion. Parfois elles se dégonflent lentement, sans bruit, l’emballement se tasse, les promesses diminuent, les projets se redimensionnent et à la fin, il reste c’est une infrastructure plus modeste mais parfois plus saine.
Puisqu le scénario d’un krach n’est pas difficile à comprendre ni à expliquer, regardons celui, plus crédible, d’un
2025-2026: un retournement très discret
Rien d’alarmant mais devant les doutes, les critiques, et l’effet « magique » qui s’estompe le marché commence à tout doucement se rétracter. Les budgets IA sont peu à peu réduits, les DSI cessent de multiplier des pilotes qui ne mènent à rien (88% of AI pilots fail to reach production — but that’s not all on IT )mais en tirent des leçons et les directions financières commencent à être strictes sur les ROI.
Côté utilisateurs, la magie s’émousse. L’usage grand public de ChatGPT et consorts plafonne. On commence à parler de fatigue, de banalisation voire saturation cognitive. l’IA lasse et déçoit un peu et au final son marketing envahissant joue contre elle.
Le ralentissement des projets de construction de datacenters est la nouvelle qui fait changer l’IA d’époque : si le marketing des acteurs dit que tout est et sera formidable, leurs propres décisions d’investissement disent qu’ils ne voient pas la demande suivre.
2026-2027 : une purge silencieuse
C’est l’année du réalignement. Des startups disparaissent ou son rachetées mais rien à voir avec le krach des dot-com. C’est discret et d’ailleurs on dit même que les « exits » sont plutôt bonnes. A des années lumières des attentes de 2024 mais finalement très convenables. Preuve que ça n’est pas l’IA qui ne fonctionne pas mais qu’on attendait trop et trop vite.
Les survivantes se réorganisent et rationalisent leur investissements.
Parallèlement les grandes plateformes reprennent le contrôle. OpenAi est de plus en plus intégrée à Microsoft et oublie son rêve de devenir le nouveau Google (OpenAI veut-elle, doit-elle et peut-elle devenir le nouveau Google ?) et Anthropic se fond dans les offres cloud Amazon.
Les grandes plateformes reprennent le contrôl. Les modèles deviennent invisibles : ils tournent en arrière-plan, intégrés à des produits déjà existants, sans plus porter leur nom et. Invisibles, interchangeables, ils sont des commodités.
Encore une fois, avoir plusieurs lignes de produit permet de vivre dans le temps long. OpenAI et les autres étaient, elles, condamnées à vivre dans le temps court et les premières hésitations des investisseurs ont eu raison de leur indépendance mais leur survie était à ce prix.
Dans les entreprises on ne parle plus de transformation IA. On parle d’amélioration incrémentale, d’aide à la productivité, d’assistance documentaire. L’IA devient une brique parmi d’autres.
Côté financement, le ton change aussi : les investisseurs ferment les vannes et c’est un peu ce qui a d’ailleurs accéléré ce phénomène
2027–2028 : reconstruction dans la sobriété
Progressivement, les lignes se stabilisent.
Ceux qui survivent repartent sur des bases différentes.
Des modèles plus petits, plus sobres, open source et spécialisés, comme ceux développés par Mistral ou la série Phi de Microsoft, des intégrations verticales, avec une IA enfouie dans les process métiers, et des business models nouveaux, non plus à l’usage tokenisé, mais à la valeur métier créée : par exemple, génération d’une réponse client qualifiée, d’un contrat structuré, d’un rapport de synthèse validé.
On paie à l’action, voire au résultat et le modèle tenté par Salesforce par quelques années plus tôt devient la norme (Agentforce Pricing Update: Salesforce Announces Major Changes).
L’IA n’est plus une rupture mais un outil et c’est là que commence sa seconde vie.
Ceux qui n’ont jamais venu du rêves mais des composants continuent, eux, à prospérer : Nvidia, bien sûr, mais aussi les fournisseurs de cloud, les éditeurs de middleware, les intégrateurs spécialisés
L’IA générative n’aura peut-être été qu’une transition technologique vers autre chose.
Conclusion
Le problème de l’IA générative ça n’est ni son potentiel ni les bénéfices qu’elle apporte mais le fait que personne n’est prêt à payer pour, d’autant que les fournisseurs de technologie ne sont pas ceux qui captent l’essentiel du revenu du marché.
Le problème n’est donc pas la technologie mais le récit qui l’entoure. Un récit qui la présente comme inévitable, repose sur l’idée que l’IA allait tout changer et la croyance que tout cela créerait un marché et des rentes nouvelles.
Le prix à payer sera trop fort pour beaucoup de clients et la rente ne viendra probablement pas, en tout cas pour les pure players.
Le discours sur l’IA est juste sur la tendance mais ne repose, comme on l’a vu, sur rien en termes de chiffrage (AGI, emploi, productivité : le grand bluff des prédictions IA) et c’est ce qui a provoqué des attentes exagérées qui finissent par saper peu à peu la confiance envers le secteur.
Les bénéfices tardent à arriver et n’arriveront peut être jamais, les couts augmentent et au final le récit lasse. Ca n’est pas propre à l’IA, c’est l’histoire du monde de la tech sauf qu’avec l’IA tout est plus rapide et plus amplifié.
Et comme toujours on rebondira vers quelque chose de moins clinquant mais de plus sain et de plus impactant à très long terme. On est pas à la fin de l’IA mais on atteint la fin de la période d’expérimentation et d’apprentissage.
Il en restera des modèles plus sobres, des usages plus ciblés, des intégrations métier plus profondes mais le tout de manière quasi invisible. L’IA ne se donnera plus en spectacle mais va délivrer dans la plus grande discrétion.
Crédit visuel : Image générée par intelligence artificielle via ChatGPT (OpenAI)