L’IA générative est-elle condamnée à ne jamais être rentable ?

-

Il y a de nombreux débats sur la capacité des acteurs de l’IA a être un jour rentables et c’est tout sauf une question anecdotique. En effet à quoi bon miser sur une technologie si ses acteurs peuvent disparaitre du jour au lendemain ?

A cela on nous répond que dans le passé des Google ou des Amazon ont attendu de longues années avant de devenir rentables et que non seulement c’est logique pour une startup mais en plus cela fait partie de la stratégie d’une entreprise comme OpenAI : créer un marché, l’inonder et ensuite seulement le monétiser une fois qu’on en est devenu le centre de gravité.

Avec aujourd’hui près de 400 milions d’utilisateurs hebdomadaires OpenAI semble donc bien sur la voie du succès.

Mais une zone d’ombre demeure : l’IA n’est pas un Saas comme un autre, ses coûts augmentent, nous dit-on aussi, proportionnellement à l’augmentation des usages ce qui rend la rentabilité inenvisageable. C’est notamment le propos d’Ed Zitron, un des tenants les plus extrêmes du scénario d’une bulle sur le point d’exploser. C’est un parfois pénible à lire mais cela soulève des questionnements pertinents (The Generative AI Con, OpenAI Is A Systemic Risk To The Tech Industry et Reality Check).

J’adhère totalement à l’hypothèse selon laquelle on ne peut pas compter en la matière sur les mêmes économies d’échelle que dans le Saas traditionnel mais si les arguments avancés ont une base indiscutable ils méritent d’être quelque peu nuancés.

Je précise bien qu’on parle ici d’IA générative, il y a pleins d’autres types d’IA et leur business model est viable depuis des lustres  (L’IA pour les nuls qui veulent y voir un peu plus clair).

En bref :

  • Le modèle économique de l’IA générative est confronté à un coût d’utilisation élevé (entraînement, inférence, salaires) qui ne permet pas encore une rentabilité à grande échelle malgré des revenus croissants.
  • Les sources de revenus sont variées (abonnements, fonctionnalités payantes, API) mais la faible part d’utilisateurs payants et l’absence de ROI clair limitent la viabilité actuelle du modèle.
  • Les coûts d’utilisation baissent rapidement grâce aux progrès techniques (meilleures infrastructures, optimisation des modèles), mais cette tendance pourrait ralentir et compromettre la trajectoire vers la rentabilité.
  • Plusieurs risques pèsent sur le modèle : manque de valeur perçue, stagnation des gains d’efficacité, régulation, rareté des données, concurrence gratuite, et déport de la valeur vers d’autres acteurs (applications, usage local).
  • La rentabilité future dépendra de l’équilibre entre baisse des coûts, volonté de payer des clients et contraintes réglementaires, avec des scénarios oscillant entre rentabilité cloud classique et service public peu rentable.

L’IA générative ne peut pas être rentable

Depuis qu’on parle de ChatGPT et ses semblables, on entend souvent deux affirmations.

La première est que faire tourner une intelligence artificielle coûte une fortune et la seconde que comme il faut payer à chaque requête (même si le résultat ne convient pas), contrairement à un logiciel classique, ça ne sera jamais rentable.

Ces affirmations partent d’un vrai constat : l’IA générative coûte très cher à faire fonctionner. Mais cela ne veut pas dire pour autant que le modèle économique est voué à l’échec.

Combien coûte l’IA générative ?

Ici il faut distinguer deux choses.

Tout d’abord l’entrainement qui correspond à la phase où l’on « forme ». le modèle en lui faisant lire des milliards de pages pour qu’il apprenne à générer du texte. Pour un modèle comme GPT-4 on évoque des sommes de l’ordre de 100 millions de dollars pour l’entraînement final (The Extreme Cost Of Training AI Models).

Ensuite vient l’inférence, c’est à dire la mobilisation d’infrastructures couteuses à chaque fois que l’on tape une requête. En ce qui concerne ChatGPT on parle d’environ 700 000 dollars par jour pour faire tourner le service.

Et il ne faut pas oublier les salaires : chez OpenAI, le coût moyen par employé dépasse 1 million de dollars par an avec une masse salariale d’1,5 milliards de dollars pour 1500 employés.

L’IA générative rapporte-t-elle de l’argent ?

Oui bien sûr et il y a aujourd’hui trois sources principales de revenus.

D’abord les abonnements grand public comme ChatGPT Plus à $20 par mois.

Ensuite sous forme d’une fonctionnalité payante. C’est le cas de Microsoft Copilot en entreprise qui est facturé entre 30 et 36 dollars par mois par utilisateur. L’IA coute plus cher que le reste de la suite logicielle et mon avis est que Microsoft ne peut faire autrement voire pratique un prix assez agressif si on part du principe que la structure de coûts de l’IA ne permet pas les économies d’échelle du Saas alors qu’elle peut se permettre des discounts massifs sur sa suite Microsoft 365.

Enfin et c’est le modèle généralement appliqué en B2B, un modèle à l’usage via API où l’on paie au million de tokens (blocs de texte. Cela rapporte entre 2 et 8 dollars selon les cas dans le cas de ChatGPT.

Pour ce qui est de la publicité les acteurs y réfléchissent mais du côté d’OpenAi on préférerait visiblement l’éviter (OpenAI veut-elle, doit-elle et peut-elle devenir le nouveau Google ?).

En juin 2025, OpenAI annonce un chiffre d’affaires annuel de 10 à 12 milliards de dollars, et Anthropic dépasse les 3 milliards.

Mais il faut relativiser.

Sur plus de 400 millions d’utilisateurs de ChatGPT chaque semaine, moins de 3 % paient, le reste sont des utilisateurs gratuits. Il n’est donc pas faux de dire qu’OpenAI perd de l’argent à chaque requêt.

Beaucoup d’entreprises expérimentent, mais peu ont industrialisé l’outil. Le retour sur investissement est encore flou. D’après une étude IBM seuls de 25% des projets IA atteignent aujourd’hui les objectifs de rentabilité (Will genAI businesses crash and burn?) et on me confirmait encore dernièrement que beaucoup de projets ne passaient pas le cap du pilote en raison d’un ROI difficile à quantifier face à des couts aussi réels de conséquents  (88% of AI pilots fail to reach production — but that’s not all on IT).

Pas mieux du coté de Microsoft avec Copilot qui peine à convaincre (Copilot : les déceptions de l’IA générative intégrée à la bureautique Microsoft). 60% des entreprises ont testé Copilot, 16% seulement sont passées en phase de déploiement (How to get Microsoft 365 Copilot beyond the pilot stage).

Ca n’est pas comme je peux le lire que l’IA ne fonctionne pas mais que d’un côté on s’est appuyé sur des projections fantaisistes (AGI, emploi, productivité : le grand bluff des prédictions IA) et que le coût pour les clients apparait démesuré au regard des attentes générées et des bénéfices constatés.

En résumé les géants de l’IA n’arrivent pas à passer leurs coûts à leur clients faute de valeur ajoutée perceptible. Il faut bien avoir en tête que le « vrai » prix d’un abonnement grand public à ChatGPT devrait se situer entre 100 et 1500 euros par an selon l’usage (ChatGPT : 20€ par mois ? À ce prix-là, même votre grille-pain hallucine). A ce prix n’importe qui hésiterait à deux fois avant de lui demander quelque chose.

Moralité, l’IA ne pèse que peu dans leurs comptes en tout cas au niveau du revenu car au niveau des coûts c’est autre chose.. Azure AI, Copilot et Github Copilot ne représentent à peine que 5% des revenus de Microsoft, Oracle ne communique pas sur le sujet, et on serait à 2,5% chez Salesforce.

Aujourd’hui, chez ces acteurs, l’IA est un relais de croissance peu rentable et si le sujet est encore balbutiant il faudra, selon les spécialistes, attendre que l’IA pèse plus de 10% du CA et ait un impact positif sur les marges pour qu’on passe d’une fonctionnalité amusante à une vraie ligne de business (IA générative : une bulle, un krach ou un virage ?).

Les coûts vont-ils forcément exploser avec le succès ?

On pourrait penser que oui, notamment si on compare au Saas tradtionnel qui a un coût marginal quasi nul ce qui n’est pas du tout le cas avec l’IA.

Et bien contrairement aux idées reçues non. En effet le coût d’utilisation baisse rapidement. En deux ans, les prix ont chuté de plus de 90 %. Pourquoi ?

Tout d’abord parce que les serveurs deviennent plus puissants et moins gourmands : le nouveau super-ordinateur de NVIDIA est 30 fois plus rapide que celui de 2023, pour moins d’énergie consommée.

Ensuite les modèles deviennent plus performants : on n’active plus tout le cerveau du modèle à chaque fois, ce qui réduit l’effort de calcul.

Enfin on regroupe les requêtes et on les traite plus efficacement en parallèle.

Selon Sam Altman (OpenAI), le coût d’utilisation est divisé par 10 tous les ans depuis deux ans.

Résultat : plus on avance, moins chaque réponse coûte à produire mais il reste vrai qu’aujourd’hui ces coûts restent beaucoup trop élevés pour être passés au client. D’ailleurs OpenAI ne se voit pas rentable avant 2029.

Et pour remettre les couts et revenus en perspective, l’entreprise a perdu 5 milliards de dollars en 2024 pour un CA de 3,7 milliards et projette pour 2025 un CA de 14 milliards pour 12 de pertes.

Où est le risque ?

Même si les coûts baissent, la rentabilité n’est pas toutefois garantie et voici les risques qui pèsent sur le secteur.

1°) Les clients ne voient pas la valeur. Moins la valeur et le ROI seront tangibles moins ils seront prets à payer, plus il faudra encore faire baisser les couts.

2°) Le coût d’utilisation ne baisse plus. C’est un risque. La « loi d’Altman » se vérifie sur deux ans dans un secteur qui partait de très bas en termes d’optimisation mais rien ne dit qu’avec le temps la marge de progression ne va pas se réduire.

3°) Les concurrents bradent les prix. On sait bien que Deepseek a été un coup de communication qui a couté beaucoup plus cher que les prix annoncés mais si les modèles gratuits se multiplient de moins en moins de personnes n’accepteront de payer.

4°) Les lois deviennent plus strictes. Il faudra prouver que l’IA respecte les droits d’auteur, l’environnement, est auditable et auditée. Le cout de la réglementation pourra peser fortement sur l’IA dans le futur et on va en avoir un avant gout avec l’AI Act Européen (L’AI Act Européen pour les nuls).

)Les données pour l’entraînement deviennent rares et chères. L’IA est arrivée au bout des données disponibles sur le web et il faudra payer cher pour avoir du contenu de qualité pour entrainer les futurs modèles (L’IA peut-elle tomber à court de carburant ou tuer le web ?). Se pose également la question des droits d’auteurs avec des points de vue radicalement différents entre les vendeurs d’IA et les auteurs et entre les deux rives de l’Atlantique. On suivra d’ailleurs avec intérêt les premiers procès en la matière (Pourquoi la défaite judiciaire d’une start-up d’IA pourrait avoir de lourdes conséquences sur OpenAI et Le procès de tous les dangers pour l’IA).

5°) Les applis (comme Notion, Canva…) captent toute la valeur. J’en ai parlé déjà précédememnt mais ces « wrappers » qui s’intercalent entre le fournisseur d’IA et le client peuvent capter l’essentiel de la valeur du marché et commoditiser les fabricants d’IA (Wrappers, deeptechs et IA générative : un château de cartes rentable mais fragile).

6°) Les modèles fonctionnent directement sur les téléphones. Si l’IA tourne localement, il n’y a plus de requête envoyée au cloud donc plus de revenus pour le fournisseur.

Ces risques sont encore théoriques, mais selon les experts il suffirait que deux ou trois se produisent en même temps pour que le modèle économique s’effondre.

Est-ce que l’IA peut être rentable ou non ?

Il y a  en fait deux scénarios.

Dans la version optimiste les coûts continuent de baisser, les entreprises paient de plus en plus, la régulation reste raisonnable. Dans ce cas le modèle devient rentable avec 40 à 60 % de marge brute, comme les grands clouds (Amazon, Google…).

Dans la version pessimiste les prix s’effondrent, les coûts stagnent, la réglementation s’accroit et les utilisateurs ne paient pas. Dans ce cas l’IA devient un « service public numérique » : utile, incontournable… mais peu rentable

Conclusion

On en revient ni plus ni moins qu’aux bases de l’économie : l’IA générative ne sera rentable que si elle parvient à faire payer suffisamment d’utilisateurs pour un service dont le coût, lui, baisse suffisamment vite.

C’est une course entre les progrès technologiques et la réalité économique et aujourd’hui, rien ne dit encore qui va gagner.

Crédit visuel : Image générée par intelligence artificielle via ChatGPT (OpenAI)

Bertrand DUPERRIN
Bertrand DUPERRINhttps://www.duperrin.com
Directeur People & Operations / Ex Directeur Consulting / Au croisement de l'humain, de la technologie et du business / Conférencier / Voyageur compulsif.
You don’t speak french ? No matter ! The english version of this blog is one click away.
1,743FansJ'aime
11,559SuiveursSuivre
31AbonnésS'abonner

Récent