Vous allez me dire que l’effondrement d’une soit disant bulle de l’intelligence artificielle n’a rien d’un hypothétique scénario futuriste et la question qui se pose n’est pas « et si ? » mais « quand » mais pour l’instant le secteur de l’IA est bien là, a un poids indéniable sur l’économie et si bulle il y a elle n’a pas encore explosé.
Mais imaginons que…
- Prologue
- La machine à promesses
- L’emballement
- Coûts cachés et coûts refusés
- Une croissance contre nature
- Le pacte du silence
- Le début de la fin
- Le krach
- Le vide
- Les survivants
- Et après ?
- Conclusion
- Pour répondre à vos questions…
Prologue
Il est encore difficile de dater précisément le moment où tout a basculé mais, pendant des années, l’intelligence artificielle a été présentée comme une évidence : outil de transformation, moteur de croissance, promesse d’un monde plus fluide, plus efficace, plus intelligent.
Dans les entreprises, les ministères, les conférences, on parlait d’opportunité stratégique, d’impératif technologique, d’avantage compétitif. Il ne fallait pas comprendre l’IA mais la déployer rapidement à tous les étages.
Puis la réalité a peu a pris repris ses droits. Coûts incontrôlés, modèles instables, infrastructure démesurée, tous les ingrédients étaient réunis pour que cela finisse mal. Et, surtout, une question à laquelle on n’a jamais vraiment répondu : pour quoi faire ?
La machine à promesses
Au départ l’histoire était pourtant simple : l’intelligence artificielle allait tout changer. Une promesse répétée à l’infini par les chercheurs, les plateformes, les analystes, jusqu’à ce que ça devienne une évidence, comme un réflexe : il fallait investir vite et massivement. Rater ce virage c’était s’exclure de l’histoire.
Et reconnaissons que dans les premiers temps, l’optimisme semblait amplement justifié. Les progrès techniques étaient réels et parfois spectaculaires. Des modèles de langage capables de résumer des textes, de générer du code, de dialoguer presque naturellement, magiquement disaient certains. De quoi nourrir beaucoup de rêves et les business models les plus fous.
Les acteurs majeurs comme Google, OpenAI, Meta, Nvidia accéléraient et les autres suivaient. On parlait déjà d’IA générale, de rupture civilisationnelle, de transformation radicale de la société. Et comme chaque saut technologique (ou présenté comme tel) déclenchait une nouvelle vague de financements il n’y avait aucune raison pour que la fête s’arrête.
Mais derrière les effets d’annonce, les modèles restaient limités, capricieux et énergivores. Et, surtout, leur coût explosait. Former un modèle dépassait les centaines de millions de dollars et l’exploiter à grande échelle exigeait une infrastructure hors norme. La consommation électrique d’un chatbot grand public approchait celle d’un quartier entier.
Mais peu importe, on continuait parce que tout le monde y croyait ou faisait semblant d’y croire.
Les dirigeants ne pouvaient plus reculer sans perdre la face et es investisseurs n’osaient pas poser de questions. Les entreprises, clientes ou partenaires, suivaient le mouvement car de toute manière il n’existait qu’une alternative et elle n’était pas envisageable : admettre qu’on ne savait pas très bien ni où on allait et ni si cela allait rapporter un jour de l’argent.
A ce stade, l’IA n’était plus une technologie mais un narratif vers un futur inévitable.
L’emballement
Ce n’était plus de l’innovation technologique mais un réflexe pavlovien : dès qu’un acteur annonçait un nouveau modèle, les autres réagissaient dans l’heure. Un cycle de surenchère continue où l’innovation réelle comptait moins que la perception de progrès.
Les levées de fonds suivaient ce rythme. On levait des milliards sur la promesse d’un modèle plus rapide, plus éthique, plus puissant que celui d’hier même si en coulisses, les ingénieurs savaient que les écarts de performance étaient marginaux et souvent imperceptibles pour l’utilisateur final. Mais sur les marchés les valorisations s’envolaient et c’était le plus important.
On assista alors à un phénomène nouveau: l’investissement circulaire. Nvidia finançait les développeurs de modèles qui consommaient ses puces. OpenAI investissait dans des start-ups qui utilisaient ses API. Les grands fonds soutenaient des couches entières de l’écosystème, du modèle à l’interface, de l’interface au service. L’argent tournait à grande vitesse et en grande quantité entre tous les acteurs mais finalement aucune valeur ne se créait.
On ne produisait plus d’outils mais des flux financiers.
Mais en réalité, cette logique d’investissement circulaire avait un effet bien plus large : elle asséchait le marché du capital. a force de réinjecter les mêmes milliards dans les mêmes structures, on avait privé d’oxygène tout le reste : l’industrie, la transition énergétique, la recherche publique.
En 2025, les acteurs de l’IA, les Nvidia, Microsoft, Alphabet, OpenAI, Anthropic, SoftBank and co pesaient à eux seuls près de 4 % du PIB américain, en capitalisation directe ou via les effets induits. C’était plus qu’à la veille de l’explosion de la bulle Internet.
On ne parlait plus d’un risque sectoriel, mais d’un risque systémique. Si la bulle IA explosait, ce n’étaient pas seulement des start-ups qui tomberaient, mais des pans entiers de l’économie interconnectée : retraites via les fonds de pension, infrastructures énergétiques, dettes publiques fondées sur des projections de croissance IA, et même la stabilité des marchés financiers.
Et pourtant, tout le monde continuait à jouer.
Les signes d’alerte existaient pourtant. Certains analystes notaient une concentration excessive des investissements sur une poignée d’acteurs alors que d’autres s’inquiétaient de la dépendance aux géants du cloud ou du fait qu’un petit nombre d’acteurs concentre les moyens matériels, les données, l’énergie, les financements et les outils techniques nécessaires pour faire progresser l’IA.
Mais les financements atteignaient des sommets et on sait bien que l’air des sommet enivre…
Les modèles généraient des textes, des images, du code, prenaient même des décisions, les agents promettaient de gérer une activité de bout en bout et cela suffisait à maintenir l’illusion que la révolution était en cours et qu’il ne fallait pas la freiner.
On sortait de la rationalité et l’IA devenait comme une foi, une obligation stratégique.
Mais à ce moment-là plus personne ne contrôlait vraiment la direction prise.
Coûts cachés et coûts refusés
C’est à ce moment que les chiffres ont commencé à poser problème.
Former un grand modèle nécessitait des dizaines de milliers de puces spécialisées, des mois de calcul, et des mégawatts d’énergie. Pour chaque lancement public, les besoins en serveurs et en bande passante se multipliaient. Les data centers s’étendaient, les réseaux chauffaient et, bien sûr, les factures grimpaient.
Mais ces coûts-là n’étaient pas encore trop mis en avant car ce qui comptait était la puissance, pas les dépenses. Pourtant, les dirigeants le savaient : le modèle économique ne tenait pas.
La plupart des utilisateurs grand public ne payaient rien. Les professionnels, eux, restaient prudents. Beaucoup avaient essayé les outils d’assistance mais peu les avaient adoptés à grande échelle : trop d’erreurs, trop d’instabilité, trop de dépendances techniques. Quant à intégrer ces systèmes dans des processus critiques, c’était encore une promesse, pas une réalité.
Alors on a inventé la croissance fictive.
Les entreprises clientes recevaient des crédits gratuits, des forfaits « expérimentaux », des modèles en libre accès. L’objectif était de gonfler les métriques, d’afficher une adoption en hausse, de convaincre le marché que l’IA devenait indispensable et que, un peu comme Google en son temps, après avoir « acheté » le marché celui-ci finirait par payer..
En interne, pourtant, on sentait les premières tensions monter. Les coûts de fonctionnement dépassaient les prévisions, les GPUs devenaient une ressource rare, quasi spéculative et la facture énergétique n’était plus négligeable.
Mais faire payer le vrai prix était commercialement impossible.
Une IA à 100 euros par mois ? Inimaginable.
Une IA à la consommation ? Rebutant.
Une IA réservée à certains usages ? Inacceptable.
L’industrie avait promis la magie pour tous et il fallait honorer la promesse. Elle ne pouvait plus revenir en arrière sans tout casser.
Une croissance contre nature
Plus l’IA gagnait’ du terrain, plus les paradoxes se multipliaient.
Officiellement, les modèles rendaient les entreprises plus productives, les employés plus efficaces, les services plus accessibles. En pratique, les usages restaient flous, les gains incertains, et les dérives de plus en plus visibles : hallucinations, décisions biaisées, dépendance cognitive, automatisation à l’aveugle, surcharge des infrastructures, voire instrumentalisation politique.
Des études internes non publiées montraient que la majorité des requêtes traitées par les assistants IA étaient superficielles, redondantes ou inutilisables. Les agents conversationnels, censés désengorger les services client, entraînaient souvent une hausse des réclamations. Quant aux copilotes de code, pourtant très populaires, ils nécessitaient relecture et correction humaine.
Mais il fallait croître et montrer que l’IA touchait tous les secteurs, toutes les fonctions, tous les usages. Alors on continuait à déployer, à automatiser sans méthode et à promettre tout et n’importe quoi.
Pendant ce temps, les premières tensions sociales finissent logiquement par apparaitre. Des équipes supprimées pour financer des projets IA sans modèle économique clair et non pas parce que l’IA les remplaçait, des métiers fragilisés par des outils peu fiables, des burn-out dans les équipes de validation humaine, payées pour filtrer les réponses non appropriées ou entraîner les modèles sans la moindre reconnaissance.
Et puis ce qui devait arriver arriva.
Un modérateur indépendant travaillant pour une plateforme IA retrouvé mort après des semaines d’astreinte numérique, seul face à des flux continus de contenus violents, injurieux, absurdes. L’enquête révéla qu’il avait alerté à plusieurs reprises sur la saturation mentale que provoquait son travail mais que personne n’a jamais daigné prêter attention à son signalement.
L’affaire aurait pu être étouffée et d’ailleurs peut être que d’autres affaires similaires l’ont été avant mais celle-ci devint le symbole de ce que l’IA exigeait et qu’on passait sous silence.
La croissance, ici, n’était plus un progrès mais une fuite en avant qui allait contre l’économie, contre l’écologie et contre les humains eux-mêmes.
Le pacte du silence
Il ne faut pas croire qu’à ce stade personne ne savait, par contre personne ne disait rien.
Les ingénieurs voyaient les limites, les chercheurs dénonçaient en privé l’absence de progrès réel, les décideurs sentaient l’essoufflement et même les investisseurs les plus enthousiastes commençaient à douter mais le système était verrouillé.
Dire publiquement que la performance stagnait, c’était faire chuter sa valorisation. Reconnaître que les modèles ne tenaient pas leurs promesses, c’était mettre en péril ses financements. Admettre que les coûts n’étaient plus soutenables, c’était ouvrir la porte à une déroute.
Alors chacun se taisait, espérant tenir un trimestre de plus, une version de plus, un nouveau tour de table.
Les grands acteurs entretenaient la dynamique avec un soin méthodique. Oui, l’IA allait peut-être et même sûrement déraper mais il fallait au pire l’encadrer mais en aucun cas l’arrêter. Mais quoi qu’il en soit il fallait les financer eux, en priorité car sinon l’IA tomberait aux mains d’acteurs « irresponsables ».
Le discours de la peur s’est donc installé. Peur d’une IA incontrôlable, d’un concurrent géopolitique plus rapide ou de devenir obsolète. Elle devenait un outil de levée de fonds : « on fait peut être mal mais sans nous ça sera pire ».
Pendant ce temps, les usages grand public perdaient en qualité. Les modèles, bridés pour des raisons de sécurité ou de coût, devenaient de plus en plus imprévisibles, les délais de réponse s’allongeaient. Les résultats se dégradaient mais la communication, elle, restait intacte.
Alors qu’en surface tout allait bien la panique arrivait dans les coulisses mais, comme sur le Titanic, tout le monde a joué son rôle jusqu’à la fin.
Le début de la fin
La rupture n’a pas commencé par un scandale ni par un cours qui dévisse en bourse mais par un silence.
Le lancement d’un nouveau modèle très attendu est retardé, officiellement, pour « améliorer la sécurité » mais, en réalité, parce qu’il ne fonctionnait pas. Trop coûteux, trop instable, trop peu performant.
Dans les semaines qui ont suivi les signaux se sont enchainés. Un partenariat stratégique suspendu sans explication, un leader technique remercié. Puis sont arrivés les licenciements ciblés, d’abord présentés comme des « réalignements », ils ont vite pris l’ampleur d’un plan social déguisé.
En parallèle, les coûts d’exploitation continuaient d’exploser et les data centers approchaient des limites physiques de ce que le réseau local, régional ou national pouvait fournir. Les GPUs étaient livrés avec des mois de retard. Surtout, les factures énergétiques atteignaient des niveaux indéfendables, surtout dans les régions sous tension.
Les clients commençaient aussi à s’impatienter car leurs propres dépenses augmentaient, sans retour sur investissement clair. Les gains de productivité annoncés ne se matérialisaient pas et les plus prudents gelaient leurs projets.
C’est alors qu’un document a fuité. Un rapport interne d’un des leaders du secteur, rédigé six mois plus tôt disant que les modèles actuels avaient atteint un plafond. Les promesses d’IA générale étaient irréalistes à court terme, les coûts étaient devenus « structurellement insoutenables » et la viabilité économique ne reposait plus sur les utilisateurs finaux, mais sur un jeu de subventions croisées. Les revenus d’un produit finançaient les pertes d’un autre. En parallèle, l’écosystème dépendait de financements indirects, capital-risque, partenariats croisés, aides publiques, qui masquaient l’absence de rentabilité réelle.
L’effet fut immédiat.
Dans les jours suivants, plusieurs entreprises retirèrent discrètement leurs offres grand public, certaines plateformes furent fermées sans préavis, des contrats furent rompus et des dizaines de projets abandonnés.
La suite n’était qu’une question de temps.
Le krach
L’effondrement, quand il est arrivé, n’a duré que huit jours.
Tout a commencé par l’annonce qu’OpenAI ne finaliserait pas sa prochaine levée de fonds en raison d’une « réévaluation stratégique » et de « nouveaux équilibres à trouver ».
Mais dans le secteur, chacun comprit parfaitement ce qui se passait : les investisseurs refusaient désormais d’aligner. Le lendemain, Anthropic suspendait deux programmes de recherche avancée. Puis Google rétrofita Gemini dans ses produits maison, sous forme d’assistant allégé. L’accès aux versions premium fut restreint, officiellement pour réduire les coûts, officieusement parce que plus personne ne voulait en payer le prix réel. L’IA passait du statut de vitrine technologique à celui de simple outil subsidiaire. Meta ferma un de ses labs dans le plus grand anonymat. Le jeudi, Nvidia perdait 28 % en bourse face au constat les ventes de GPU à destination de l’IA avaient atteint un plateau.
La nouvelle fit l’effet d’un électrochoc. Les médias, jusque-là prudents voire complices, retournèrent leur veste et commencèrent à publier les témoignages accumulés depuis des mois : modèles peu fiables, gains surévalués, dérives environnementales, usages détournés, salariés épuisés.
Le vendredi, SoftBank gelait tous ses investissements en IA, Oracle dénonçait ses contrats avec deux grands acteurs pour « non-respect des objectifs de performance » et un ex-directeur technique publiait un billet accablant, évoquant un « suicide collectif maquillé en stratégie ».
Le lundi, l’indice Nasdaq plongeait. Les valorisations IA s’effondraient et des dizaines de start-ups se déclaraient en cessation de paiement, dont certaines n’avaient même pas livré de produit, juste des promesses, des prototypes, des slides.
Ce n’était plus une crise sectorielle. Les fonds de pension, massivement exposés à Nvidia et Microsoft, encaissèrent des pertes brutales. Plusieurs banques régionales suspendirent des lignes de crédit aux infrastructures cloud. Des gouverneurs d’États américains parlèrent déjà d’impact sur les finances publiques, tant les projections budgétaires avaient intégré les promesses de l’IA.
En Europe, certains opérateurs télécom durent revoir leurs plans d’investissement. En Asie, des projets de data centers furent gelés.
En une semaine, l’illusion d’un secteur autonome s’était effondrée : la bulle IA avait contaminé la structure même de l’économie.
En entreprise, c’était la panique. Les responsables IT se préparaient à couper des services critiques et les DSI faisaient le tri entre ce qui était encore maintenu et ce qui ne le serait plus .Des assistants numériques disparaissaient du jour au lendemain, des modèles arrêtaient de répondre et des APIs affichaient simplement : « service unavailable ».
Le rêve technologique était devenu un vide fonctionnel.
Le vide
Le krach avait eu lieu, mais le plus déstabilisant restait à venir : le vide après la chute.
Les outils basés sur l’IA générative n’étaient pas conçus pour être autonomes. Leur performance dépendait de mises à jour constantes, de serveurs, de modèles réentraînés en permanence. Quand les flux financiers se sont arrêtés, ces structures ont suivi.
Dans les semaines qui ont suivi, des milliers d’entreprises se sont retrouvées à sec : pas de support, pas de correctifs, pas de maintenance. Les équipes internes, formées à consommer des modèles propriétaires sans en comprendre l’architecture, se retrouvèrent démunies. Sans code source, sans données, sans infrastructure, il n’y avait rien à reprendre, rien à réparer.
Dans l’administration, les dégâts furent immédiats. Certains services d’accueil s’étaient reposés sur des agents IA pour répondre aux usagers mais du jour au lendemain, plus rien. Des centres hospitaliers qui expérimentaient des IA de tri des urgences durent revenir en urgence à des systèmes papier.
Certaines collectivités locales, qui avaient cofinancé des assistants IA pour l’instruction de dossiers, les demandes sociales ou l’orientation scolaire, durent suspendre des pans entiers de leurs services numériques. Les projets de modernisation, pourtant financés à grands frais, furent abandonnés. Il ne restait que des interfaces inutilisables connectées à des serveurs muets.
Chez les particuliers, la coupure fut encore plus nette. Les interfaces conversationnelles disparurent des smartphones, les traducteurs automatiques devinrent payants, ou inopérants et les outils de génération de contenu cessèrent de répondre.
Pour les utilisateurs les plus dépendants comme les petites entreprises, les freelances, les enseignants ou encore les personnes en situation de handicap le choc fut frontal. Temps gagné grâce aux assistants, confort d’usage, simplification de tâches complexes : tout disparut en quelques jours.
On s’aperçut alors qu’aucun plan B viable n’avait été pensée. Ni de plan de secours, ni alternative libre et encore moins de maîtrise locale. Seulement des services distants, connectés à des infrastructures opérés par des acteurs désormais disparus.
Les survivants
L’investissement technologique s’était figé. Pendant plusieurs mois, plus personne ne finançait rien, ni IA, ni biotech, ni climat. Les grands fonds refusaient tout ce qui ressemblait quoi que ce soit qui ressemblait de près ou de loin à une promesse lointaine. Il fallut attendre la stabilisation des marchés pour que les projets locaux, utiles et mesurables, retrouvent timidement des soutiens.
Mais tout n’avait pas toutefois pas disparu dans l’effondrement. Certaines poches de résistance avaient subsisté et elles se révélèrent essentielles une fois la bulle percée.
Les premières à tenir furent les IA industrielles. Moins spectaculaires, mais robustes, elles servaient à optimiser la consommation énergétique d’un site, à détecter des défaillances mécaniques, à prévoir des pics de demande logistique. Pas de conversation, pas de texte généré à la volée, juste des corrélations fiables. Peu de données, peu de de bruit mais une valeur claire.
Dans le secteur public, certains organismes reprirent le contrôle. Des modèles plus anciens, localement hébergés, furent réactivés. Moins puissants ils avaient l’avantage d’être explicables et maintenables. Des administrations locales, autrefois dépendantes de services tiers, redécouvrirent la puissance de solutions simples, maîtrisées et viables.
Des coopératives technologiques émergèrent également. Des ingénieurs fatigués par la course aux modèles géants créèrent des alternatives sobres, des universités hébergèrent des projets open source, entraînés sur des corpus transparents et des collectivités locales financèrent des IA thématiques, agricoles, médicales, environnementales, limitées mais stables.
Même dans le privé, certains modèles économiques s’adaptèrent.Des éditeurs proposaient désormais des IA installables localement, sans passer par le cloud, avec un modèle économique transparent : licence fixe, support technique, ou facturation au déploiement. Des plateformes fermées pendant le krach réapparurent sous une autre forme : plus lentes, plus chères, mais transparentes sur leurs limites.
Et puis il y eut ceux qui inventèrent autre chose.
Une ex-directrice R&D d’Anthropic lança une start-up de diagnostic vétérinaire, basée sur un modèle local, entraîné uniquement sur des cas validés, un collectif d’ingénieurs africains développa une IA de suivi des cultures adaptée aux zones rurales sans connexion et un ancien modérateur lança une coopérative d’accompagnement humain pour les tâches que l’IA ne ferait plus jamais.
Quant aux grands noms de l’IA, ils avaient connu des sorts divers. OpenAI avait été discrètement absorbée par Microsoft, dans une opération plus comptable que stratégique et les modèles les plus utilisés furent conservés, les autres abandonnés. Google s’était recentré sur l’infrastructure, en reléguant l’IA générative à un statut d’outil auxiliaire. Meta coupa presque tout, sauf quelques projets internes dédiés à la modération et à la publicité. Nvidia résista mieux car sa technologie restait centrale, même si la demande avait chuté. Elle se repositionna donc sur la robotique et les applications industrielles. Quant à SoftBank, elle avait tout perdu ou presque. Le fonds Vision IA fut fermé. Quant aux actionnaires d’Apple ils se frottent encore les mains de l’approche plus que précautionneuse qu’avait eu l’entreprise…
Et après ?
L’après n’a pas été un retour en arrière mais une reprise lente, presque artisanale.
La croyance en une intelligence artificielle générale, omniprésente, fluide et bon marché s’était évaporée et, avec elle, les promesses de croissance sans limites, de gains sans efforts, de pilotage algorithmique de la société.
Ce qui avait survécu était plus modeste mais, surtout, plus solide.
Dans les entreprises, l’IA redevint un outil parmi d’autres. On l’utilisait là où elle avait prouvé sa fiabilité. Le fantasme de l’assistant universel fut remplacé par des solutions locales, spécialisées, explicables.
Les décideurs, eux, tirèrent difficilement les leçons. Certains continuèrent à chercher le « prochain miracle », refusant d’admettre que le précédent reposait sur le malentendu fondamental de la confusion entre puissance technologique et création de valeur.
Mais ailleurs, une autre culture se développa. Une culture de la sobriété qui acceptait l’incertitude, qui replaçait l’humain au centre, qui considérait les ressources techniques, sociales et environnementales comme limitées et donc précieuses.
Cette culture plus sobre n’était pas seulement un choix rationnel. car c’était aussi une protection.
On ne croyait plus aux récits de rupture ni aux visionnaires et encore moins aux promesses techniques.
La confiance avait été brûlée avec les milliards et même les projets légitimes de demain allaient devoir composer avec les conséquences de ces souvenirs douloureux.
Le prix réel de l’intelligence artificielle fut enfin posé. Pas seulement en euros ou en kilowattheures mais en attention, en confiance, en dépendance, en liberté. Ce prix, que le grand public n’avait jamais été invité à le payer il l’avait en fait payé autrement en perte de maîtrise, fragilité systémique et opacité.
Ceux qui continuaient à bâtir des systèmes d’IA le faisaient désormais autrement. Fini les rêves, bonjour les comptes clairs, des limites assumées et une certaine forme d’humilité.
Conclusion
Les bulles technologiques n’échouent jamais totalement. Elles laissent derrière elles des outils, des réflexes, parfois des infrastructures utiles. Mais avant tout, elles nous font prendre conscience des déséquilibres sur lesquels elles ont prospéré.
L’explosion de la bulle IA, dans ce scénario, n’est pas la fin de la technologie mais la fin d’un récit. Celui d’une intelligence artificielle gratuite, universelle, omnipotente, pilotée par quelques acteurs surfinancés au nom de l’urgence collective.
Ce qui tient encore debout après l’effondrement n’a rien d’impressionnant mais fonctionne et est rentable. Ce sont des usages modestes et des communautés techniques qui ont compris qu’en matière d’IA comme ailleurs, la rareté impose de penser autrement.
Demain une nouvelle vague reviendra avec d’autres promesses, d’autres slogans mais une chose aura changé : notre seuil de crédulité. Mais en fait…non. L’histoire nous a prouvé qu’on ne savait dire non aux promesses irréalistes et aux bonimenteurs et on peut sans crainte de se tromper imaginer que le même scénario se rejouera une énième fois, simplement avec des acteurs et un décor différent.
Pour répondre à vos questions…
L’effondrement de la bulle IA semble inévitable car le secteur repose davantage sur un récit économique que sur une valeur réelle. Les coûts sont énormes, les modèles peu fiables et la rentabilité absente. Quand les financements se tariront, beaucoup d’acteurs tomberont. Les seules entreprises capables de durer seront celles qui miseront sur des usages sobres, utiles et transparents.
La stagnation technique, les coûts énergétiques insoutenables et la dépendance à quelques géants étaient des signaux clairs. Les performances n’évoluaient plus, mais les investissements continuaient. Quand les investisseurs ont cessé de suivre, les projets non rentables se sont arrêtés. Le retrait d’acteurs comme OpenAI ou Nvidia a déclenché la panique.
Elle reposait sur un système fermé où les mêmes capitaux circulaient sans création de valeur. Les entreprises offraient des crédits gratuits pour simuler l’adoption et cacher la non-rentabilité. L’énergie, les infrastructures et les GPU coûtaient plus cher que les revenus générés. Ce modèle spéculatif ne pouvait durer.
En quelques jours, des milliers d’entreprises ont perdu leurs services IA. Les modèles ont cessé de fonctionner, les administrations ont dû revenir à des méthodes manuelles, et de nombreuses start-ups ont fermé. L’économie entière a subi le contrecoup d’une dépendance excessive à des infrastructures privées.
L’IA n’a pas disparu mais s’est recentrée sur des usages sobres et locaux : maintenance, énergie, santé. Les modèles open source et les coopératives ont pris le relais. L’illusion d’une IA gratuite et universelle a disparu, laissant place à une approche plus modeste, pragmatique et humaine.
Crédit visuel : Image générée par intelligence artificielle via ChatGPT (OpenAI)








