L’intelligence artificielle progresse à un rythme spectaculaire et chaque nouvelle génération de modèle s’avère plus performante, plus rapide, plus optimisée. On parle de modèles « légers », de consommation réduite, de calcul “frugal” et l’idée que l’IA pourrait devenir sobre énergétiquement s’invite dans les discours des acteurs du secteur.
Mais cette sobriété est largement illusoire. Pas parce que les technologies seraient inefficaces, mais parce qu’elles sont, au contraire, trop efficaces pour qu’on reste raisonnables sur les usages. A l’image d’autres secteurs avant elle, l’IA entre dans un cycle où les gains d’efficacité énergétique alimentent une intensification massive des usages avec comme résultat tout l’inverse d’une consommation moindre.
En bref :
- L’efficacité croissante des modèles d’IA réduit leur coût unitaire mais favorise une augmentation massive des usages, entraînant une consommation énergétique globale en hausse.
- Les gains d’efficacité technique à l’échelle individuelle ne se traduisent pas par une sobriété énergétique à l’échelle du système, en raison de l’effet rebond.
- La multiplication des usages quotidiens de l’IA, rendue possible par la baisse du coût marginal, contribue à l’élargissement constant de son empreinte énergétique.
- Les modèles légers et locaux ne garantissent pas une consommation moindre, car ils facilitent une diffusion incontrôlée des usages sans encadrement global.
- La véritable sobriété nécessite des limites collectives explicites sur les usages numériques, par des choix politiques et des régulations, au-delà des seules innovations techniques.
L’IA plus sobre ? Séduisant mais illusoire
Les progrès techniques sont indéniables : grâce à la compression des modèles, au calcul distribué, à la quantification, à l’optimisation des frameworks on arrive à réduire l’empreinte carbone d’un modèle ou d’une requête. A l’échelle unitaire c’est concret et mesurable.
Mais ces gains ne signifient pas que l’IA consomme globalement moins et c’est même tout l’inverse. En effet plus les modèles sont efficaces d’un point de vue énergétique, plus leur cout économique et écologique unitaire baisse, moins on a de freins pour les utiliser et donc plus on les utilise. Cette dynamique est bien connue : on l’appelle effet rebond et elle a été documentée dès le XIXe siècle dans le secteur du charbon mais se retrouve dans toutes les technologies dont l’usage repose sur un équilibre entre coût et utilité.
Faire plus, tout le temps
Dans l’automobile, des moteurs plus sobres ont permis de produire des véhicules plus lourds, plus puissants, utilisés plus longtemps, roulant plus vite. Dans l’aviation, l’amélioration du rendement par passager a conduit à une explosion du trafic mondial. L’unité consomme moins, mais le système consomme plus.
L’IA suit la même trajectoire. A mesure que le coût marginal d’une requête diminue, les cas d’usage se multiplient. L’IA conversationnelle devient une fonction intégrée aux outils du quotidien, accessible dans les suites bureautiques, les navigateurs, les outils de service client, les logiciels métiers. De fait, ce qui était occasionnel devient fréquent et ce qui était réservé à des tâches complexes devient utilisé pour les tâches les plus banales.
On n’est pas énergétiquement plus sobre à usage constant mais la baisse du cout énergétique unitaire entraine une explosion du périmètre des usages et de l’impact énergétique global.
Les “petits modèles” : une fausse bonne idée
Certains avancent que la solution viendra de modèles plus légers, embarqués localement, moins gourmands. C’est effectivement une piste intéressante, mais qui ne résout pas la seule question qui vaille, celle de la limite globale de consommation.
En effet si chaque terminal devient capable de faire tourner son propre assistant IA, la consommation devient diffuse et bien plus difficile à piloter. Comme on l’a vu moins consommer par unité ne veut pas dire consommer moins au total mais cela permet simplement de multiplier les unités et les usages de manière totalement naturelle et spontanée, sans se poser la moindre question.
C’est ici que la notion de borne collective, proposée par certains spécialistes, entre en jeu. Elle part d’un constat simple : tant qu’aucune contrainte énergétique globale n’est fixée, les gains d’efficacité se transforment mécaniquement en augmentation d’intensité. Une IA plus sobre ne sera pas moins consommatrice si elle est sollicitée mille fois plus.
Par borne collective, on entend une limite explicite, fixée à un périmètre donné (entreprise, secteur, pays), qui encadre l’ensemble des usages numériques, IA incluse (car elle est loin d’être la seule en cause (Numérique et environnement : des usages immatériels pour un impact réel et Numérique responsable : et si on arrêtait l’hypocrisie ?)) en fonction d’un budget énergétique non extensible.
Cela peut prendre plusieurs formes :
- un plafond de consommation assigné à un service ou à une entreprise,
- un quota de calcul ou de requêtes IA allouées selon des critères définis,
- une régulation différenciée des cas d’usage, selon leur utilité,
- ou une taxation intégrée aux bilans carbone.
La question n’est plus seulement technique mais politique. Ce n’est pas l’optimisation qui produit la sobriété mais l’arbitrage sur ce que l’on autorise à consommer et pourquoi.
Conclusion
Penser que l’IA deviendra sobre par la seule vertu du progrès technologique revient à confondre efficacité locale et maîtrise systémique. Tant qu’aucune borne collective ne vient limiter l’expansion des usages, chaque avancée technique, si vertueuse soit-elle, alimente une dynamique d’accélération.
La sobriété ne résultera pas de modèles plus petits, ni de datacenters plus verts mais de notre capacité à structurer les usages, à prioriser les fonctions utiles, et à assumer des choix collectifs sur ce qui mérite ou non de solliciter l’IA bien sûr mais également les technologies numériques en général.
Crédit visuel : Image générée par intelligence artificielle via ChatGPT (OpenAI)








