Chaque semaine apporte son lot de chiffres sur l’intelligence artificielle, tous aussi plus impressionnants voire inquiétants les uns que les autres. Des millions d’emplois en diner, des gains de productivité astronomiques et l’intelligence artificielle générale, celle qui nous rendra tous obsolètes est à notre porte !
Mais quelle confiance pouvons nous avoir dans ces chiffres ? Quelle est la rigueur scientifique derrière eux ?
Trop souvent on confond prévision et prédiction, projection crédible et extrapolation hasardeuse.
C’est une constante dans le monde de la tech mais, une fois encore, il convient donc de distinguer ce qui relève d’une analyse fondée et ce qui relève de la croyance ou de la communication.
En effet le fait est que la plupart des chiffres avancés, que nous lisons, discutons et sur la base desquels nous prenons peut être des décisions, sont des estimations au doigt mouillé qui ne sont étayés par aucun modèle mathématique sérieux.
En bref :
- Les chiffres avancés sur l’impact de l’IA sont souvent fondés sur des extrapolations peu rigoureuses, sans modèle scientifique solide, et servent des intérêts marketing ou politiques plus que des analyses fiables.
- La confusion entre prévision et prédiction alimente une perception erronée de l’avenir de l’IA, les premières étant fondées sur des données et modèles éprouvés, les secondes relevant de la spéculation voire de la croyance.
- L’intelligence artificielle générale (AGI) fait l’objet d’une définition floue et d’horizons divergents, ce qui rend toute discussion sur son avènement hautement spéculative et non scientifique.
- Les effets annoncés de l’IA sur l’emploi et la productivité reposent sur des hypothèses fragiles et des méthodologies discutables, avec des écarts importants entre les estimations et peu de preuves empiriques à ce jour.
- Le discours dominant sur l’IA est façonné par des acteurs ayant intérêt à exagérer son impact, créant une asymétrie entre promesses technologiques et réalités économiques et sociales, au détriment d’une analyse rigoureuse.
Prévision vs prédiction : deux logiques diamétralement opposées
J’ai, il y a peu, rappelé la différence entre prévisions et prédictions (Pourquoi dirigeants et experts commettent il de grossières erreurs quant il faut anticiper l’avenir ?) mais je pense utile de refaire un rappel ici.
Une prévision repose sur des données observables, des modèles mathématiques et statistiques validés, une probabilité d’occurence évaluée. Elle est le résultat d’une méthodologie rigoureuse semblable à ce qui se fait en matière d’économie ou de météorologie.
A l’inverse une prédiction est une affirmation sur le futur fondée sur peu de faits, subjective, voire prophétique.
Disons les choses autrement.
Les prévisions sont faites par des gens sérieux, un peu tristes, qui suivent des méthodologies strictes où l’intuition et la créativité n’ont pas leur place.
Les prédictions, elles, sont faites par des gens qui vous expliquent que le futur va être terrible et que vous ne survivrez qu’en achetant leurs produits et services. Le marketing de la peur a toujours bien fonctionné et, pour citer un homme politique célèbre, plus c’est gros plus ça passe.
Souvenez vous qu’en 2015 on allait tous mourir si on n’investissait pas dans la transformation digitale. Qui est mort du digital ou l’ubérisation ? Personne (Digital : l’empire contre-attaque). Demain on parlera d’ailleurs du Metavers qu’il y a 5 ans certains voyaient valorisé entre 5000 et 13000 milliards de dollars. Et n’oubliez pas qu’en 2000 on aurait tous du avoir des voitures volantes.
Bref.
En matière d’IA la confusion entre prévisions et prédictions est systématique : on présente des estimations voire des arguments marketing comme des certitudes, on projette des effets systémiques à partir de tests locaux ou en laboratoire et on en fait des vérités.
Très peu de ces prédictions, voire aucune, ne sont modélisées à partir de données solides ni validées à partir de la comparaison de scénarios. Elles ne reposent donc sur aucun modèle robuste.
Quiconque a fait un peu d’économie sait ce qu’est un modèle robuste : il repose sur des hypothèses explicites, des données empiriques vérifiables, une capacité à être testé dans le temps, et une sensibilité maîtrisée aux variations de paramètres. Ce qui n’est souvent pas le cas ici.
Faire des prédictions sur l’IA sans modèle rigoureux, c’est comme annoncer la météo dans deux semaines sans regarder le ciel ni disposer d’un satellite.
En effet la plupart des prédictions sur l’IA reposent sur des matrices de tâches, des questionnaires d’opinion ou des raisonnements qualitatifs non modélisées. On est plus dans la prospective que la science prédictive.
Et le vocabulaire utilisé par les consultants, journaliste, dirigeants et bien sûr le marketing des éditeurs entretient volontairement cette ambiguïté afin de nous faire prendre des prophéties autoréalisatrices pour des scénarios plausibles.
L’AGI : une définition insaisissable, des horizons divergents
Elle fait rêver, fait peur, fait fantasmer : je parle bien sur de l’intelligence artificielle générale (AGI). C’est le graal, l’IA absolue : une forme d’intelligence artificielle capable de comprendre, apprendre et accomplir toute tâche cognitive humaine avec un niveau de performance au moins équivalent à celui d’un être humain, de manière autonome et transférable entre domaines.
Celle qui nous rendra tous obsolètes.
Mais encore faut-il s’accorder pour savoir de quoi on parle et là c’est loin d’être le cas car il n’existe aucune définition consensuelle sur ce qu’est l’AGI.
Pour certains, c’est une IA capable d’effectuer toutes les tâches cognitives humaines, de façon autonome et généralisable. Pour d’autres, elle désigne un système capable de transférer des compétences acquises dans un domaine vers un autre, sans supervision humaine. D’autres encore parlent simplement de performance équivalente à celle d’un humain moyen dans un ensemble de tâches variées.
Plus récemment, Microsoft et OpenAI ont annoncé que l’AGI sera atteinte dès que OpenAI aura développé un système d’IA capable de générer au moins 100 milliards de dollars de bénéfices (Microsoft and openai agree a financial definition of AGI of $100 billion).
Beaucoup moins ambitieux et par expérience je me dis que lorsqu’on abaisse les critères de jugement cela veut dire qu’on se dit qu’on aura du mal à y arriver. Un peu comme le niveau d’exigence au BAC…
Bref, l’AGI, c’est un peu comme le monstre du Loch Ness : tout le monde en parle, certains jurent l’avoir vu, mais personne ne peut la définir clairement ni prouver son existence.
En 2022, une étude de AI Impacts avait interrogé 738 chercheurs en IA (2022 Expert Survey on Progress in AI) et 50 % estimaient que l’AGI apparaîtrait avant 2059, 25 % pensent pas avant 2100, et une minorité significative jamais.
Mais à l’échelle de l’IA 2022 c’est il y a une éternité. Alors qu’en dit on maintenant ?
Sam Altman, le directeur général d’OpenAI a affirmé que l’AGI pourrait émerger dès 2025 (Reflections), une position partagée par quelques figures du secteur mais minoritaire dans la communauté scientifique. Du coté chez Anthropic, son président Dario Amodei estime que l’AGI pourrait voir le jour dès 2026, voire dans les 12 à 24 prochains mois (Dario Amodei: Anthropic CEO on Claude, AGI & the Future of AI & Humanity). Cela rejoint le scénario dit « AI 2027 », élaboré par d’anciens chercheurs d’OpenAI et du Center for AI Policy, qui tablent sur une émergence de l’AGI autour de 2027.
Mais d’autres sont beaucoup plus prudents.
Pour Geoffrey Hinton (ex-Google) l’arrivée possible de l’AGI se site entre 5 et 20 ans, soit entre 2028 et 2043 (Here’s how far we are from AGI, according to the people developing it), mais il insiste sur l’incertitude persistante autour de cette échéance et même sur ce qu’est vraiment l’AGI (‘Godfather of AI’ says there isn’t a consensus on what ‘artificial general intelligence’ means.
A coté de ça diverses études placent l’arrivée de l’AGI entre 2030 et 2060.
On parle donc d’une marge d’erreur de 35 ans pour quelque chose au sujet de laquelle aucune définition n’existe et dont certains doutent même de l’existence.
D’autres personnes faisant autorité comme Yann LeCun (Meta) la jugent très lointaine et mal définie (Meta’s LeCun Debunks AGI Hype, Says it is Decades Away), tandis que d’autres comme Eliezer Yudkowsky, le fondateur du Machine Intelligence Research Institute(Pausing AI Developments Isn’t Enough. We Need to Shut it All Down) annoncent son avènement comme imminent et potentiellement dangereux.
Ces différences rendent donc toute discussion sur le calendrier ou les impacts de l’AGI totalement spéculative et révèlent une absence totale de consensus non seulement sur ce qu’est l’AGI, mais aussi sur la plausibilité de son avènement dans un horizon temporel exploitable.
On est donc totalement dans le domaine au mieux de la croissance personnelle et, au pire, du marketing. Tout cela repose donc davantage sur des intuitions, des positions philosophiques, des impératifs commerciaux, des messages subliminaux aux investisseurs plutôt que sur une progression mesurable ou modélisable.
L’arnaque du QI de l’IA
Je lis ça et là que l’IA atteint aujourd’hui des scores de quotient intellectuel similaires aux humains les plus intelligents et qu’elle va rapidement les surpasser. Mais je ne lis personne qui au lieu de repartager du hype de manière forcenée ne se questionne sur la pertinence de l’argument.
Le QI est un outil de mesure statistique conçu pour évaluer certaines capacités cognitives humaines comme le raisonnement logique, la mémoire ou la compréhension verbale. Il repose sur une normalisation autour d’une moyenne humaine pour une classe d’âge donnée.
Appliquer ce concept à des intelligences artificielles est donc scientifiquement discutable car une IA ne partage ni la structure cognitive, ni les limites biologiques humaines.
Elle peut, par ailleurs, exceller sur certaines tâches de QI tout en échouant sur des tâches élémentaires pour un humain (compréhension contextuelle, bon sens). Essayez de demander à chatGPT un calcul ou une résolution d’équation, même simple, et vous allez rire: normal, il ne sait pas compter, même pas le nombre de caractères dans un mot ou le nombre d’occurrences d’une lettre dans un mot et ne comprend pas le sens de ce qu’il dit. Pour lui la réponse qu’il vous donne n’est pas la meilleure en termes de sens mais la plus statistiquement probable.
Les tests utilisés pour calculer le QI d’une IA sont également souvent biaisés, car les IA sont souvent entrainés sur les corpus des tests eux-mêmes. Un peu comme si vous vous entrainiez sur le sujet même de l’examen que vous allez passer.
Enfin l’intelligence d’une IA est fondamentalement différente de celle d’un être humain : elle est spécialisée, contextuelle et n’a ni conscience ni intention.
Le QI n’est donc ni pertinent, ni suffisant pour évaluer ou comparer les capacités cognitives des intelligences artificielles
D’ailleurs LeCun ne dit pas autre chose (Are we all wrong about ai? When academics challenge the silicon valley dream et, This AI Pioneer Thinks AI Is Dumber Than a Cat, Meta AI Chief Yann LeCun: Human Intelligence Is Not General Intelligence) quand il dit que l’AGI ou peu importe la manière dont vous la nommez ne sera pas atteinte par les LLM dont on s’esbaudit par ailleurs quand on parle de leur soit disant QI (Meta’s AI chief: LLMs will never reach human-level intelligence). Ce faisant il tient à peu près les mêmes propos que Luc Julia qui nous dit que les discours alarmistes autour de l’AGI sont souvent exagérés et ne reflètent pas la réalité des capacités actuelles de l’IA (Dans l’IA, trop d’artificiel, pas assez d’intelligence pour le spécialiste Luc Julia) mais je ne comprends pas pourquoi à chaque fois que je cite ce dernier sur Linkedin je vois comme une sorte de levée de bouclier, comme si des gens avaient peur qu’on leur casse leurs rêves et leurs jouets.
Ne vous méprenez pas, je ne dis pas qu’un jour ne naitra pas une IA capable de nous égaler ou nous surpasser, en tout cas dans certains domaines.
Je dis juste que personne ne s’accorde quant à savoir ce dont on parle, de quand cela arrivera ni même de si cela arrivera et en tout cas dans quelles proportions.
Je ne dis pas que tel ou tel de ces éminents spécialistes à tort ou raison, je dis juste que chacun peut choisir l’hypothèse qu’il veut, aucune n’est plus valable que l’autre et aucune ne repose sur un raisonnement scientifique mais sur des intuitions et des convictions.
IA et destruction d’emplois : un mélange d’hypothèses et d’approximation
Je vous disais dernièrement que je ne croyais pas au remplacement généralisé de l’humain par l’IA, en tout cas à moyen terme et même à long terme (IA et emploi : pourquoi je ne crois pas au « grand remplacement » de l’Homme par la machine).
Maintenant parlons des chiffres disponibles sur le sujet.
Goldman Sachs parle de 300 millions d’emplois « exposés » dans le monde (Generative AI could raise global GDP by 7%).
Toujours en 2023, McKinsey prévoyait que 60 à 70 % du temps de travail pourrait être automatisé d’ici 2030 (The economic potential of generative AI: The next productivity frontier). Notons bien la différence entre emplois et temps de travail.
Plus récemment, en 2025, le World Economic Forum (2023) anticipe 92 millions d’emplois supprimés d’ici 2030 mais également que 170 millions de nouveaux emplois seront créés dans le même temps (The Future of Jobs Report 2025).
Inutile d’aller plus loin : vous trouverez une énorme quantité de chiffres qui ne disent pas tous la même chose et surtout pas dans les mêmes proportions.
Mais il faut bien avoir en tête qu‘un emploi exposé n’est pas un emploi supprimé. De plus ces estimations ne reposent, là encore, sur aucun modèle mathématique robuste. Il ne s’agit ni de projections économétriques ni de modélisations validées mais au mieux d’extrapolations issues de matrices de correspondance entre tâches et capacités d’outils d’IA, et, au pire, d’intuitions transformées en chiffres à des fins de marketing.
Il n’existe pas, à ce jour, de modèle scientifique permettant de prédire avec fiabilité combien d’emplois seront supprimés, à quel horizon, et dans quels secteurs. C’est donc une évaluation subjective sans valeur prédictive.
On a déjà eu la leçon par le passé mais elle ne semble pas avoir été apprise. En effet dès 2013 une étude de Frey & Osborne Frey nous disait qu’entre 33 et 47% des emplois américains était automatisable (The future of employment: how susceptible are jobs to computerisation?). Trois ans plus tard l’OCDE ramenait son chiffre à 9% en raison d’un problème de méthode :les premières estimations supposaient une automatisation totale d’un poste si une majorité de ses tâches était automatisable, ce qui est totalement irréaliste.
Plus proche de nous une autre étude vient de tempérer les scénarios les plus alarmistes (Generative AI is not replacing jobs or hurting wages at all, economists claim). L’analyse des données de 200 millions d’offres d’emploi aux Etats-Unis montre que l’arrivée des outils d’IA générative n’avait pas eu d’impact significatif sur les offres d’emploi ou les salaires dans les secteurs les plus exposés.
LeCun va également dans ce sens (Meta scientist Yann LeCun says AI won’t destroy jobs forever)
J’insiste encore à nouveau sur la question de la rigueur de la méthode. On liste des tâches, on regarde ce peuvent faire des IA et on en déduit une « remplaçabilité » potentielle qui, peut être, deviendra réalité. Mais l’IA est elle la seule responsable de la destruction potentielle d’emplois en 2025 ? Peut être que des variables comme les tensions économiques ou les guerres jouent un rôle, même minime, dans un potentiel ralentissement économique ? Mais les prédictions technocentrées ne prennent jamais en comptes les variables externes…
Là encore ne me faites pas dire ce que je ne dis pas.
On me pose souvent la question de savoir si « l’IA va un nous nous piquer nos jobs ».
Ma réponse est que la question est mal posée :
• Est-ce que l’IA va prendre une partie de mes activités ? Certainement. Mais quelle proportion et à quel horizon de temps ?
• Est-ce qu’elle va m’imposer des tâches non désirées et contraintes comme perdre du temps à rédiger un prompt à usage unique ou vérifier ses résultats et corriger les erreurs ? Oui. Mais dans quelle proportion ?
• Est-ce qu’elle va créer des tâches à haute valeur ajoutée, plus épanouissante ? Certainement mais dans quelles proportions et pour combien de monde ?
• Quand ou à quelle vitesse cela va se produire ? Je n’en ai rationnellement absolument aucune idée.
Je ne dis pas que cela ne va pas arriver, je dis juste que c’est probable (quelle probabilité ?) mais sans savoir à quel point et que tout ce qu’on lit en termes d’ordre de grandeur et horizon de temps ne repose sur rien de solide.
Je peux vous dire que je vais probablement partir en vacances cet été (la probabilité n’est même pas de 100%), mais je ne sais ni ou ni quand. Partant de là je n’ai pas assez pour soutenir une conversation avec mes amis sur mes futures vacances mais si je parlais d’IA avec le même niveau de certitude je pourrais me faire passer pour un gourou.
En attendant je ne doute pas que tout ce qui est automatisable sera automatisé, qu’on se fait des illusions sur les jobs soit disant plus épanouissants et qu’au final on fera pleins de bêtises avant de peut être revenir en arrière (Cessons d’être nAIfs avec l’IA au travail). Mais pour prendre les bonnes décisions il faut des chiffres et des horizons de temps et en la matière nous navigons en pleine fantaisie.
Gains de productivité : des projections sous condition
McKinsey avance donc que l’IA générative pourrait générer +3,3 % de productivité annuelle d’ici 2040. PwC estime à +14 % l’impact sur le PIB mondial d’ici 2030 (Sizing the prize. What’s the real value of AI for your business and how can you capitalise?).
Mais ces chiffres sont conditionnels car ils reposent sur une adoption massive et rapide, une requalification généralisée des salariés et une intégration sans friction dans les organisations. Tout ce qui n’arrive absolument jamais (Vous pouvez voir l’ère informatique partout, sauf dans les statistiques de la productivité).
Et, surtout ils ne reposent sur aucune modélisation rigoureuse mais seulement sur ces hypothèses optimistes et linéaires.
Dans les faits, les gains observés restent localisés et souvent marginaux. Le coût d’intégration, la qualité des données, la culture managériale, la courbe d’apprentissage sont utant d’obstacles qui atténuent l’impact promis dans des proportions majeures, sans même parler de l’acceptabilité et de l’impact social (Les défis que pose l’IA ne sont pas technologiques mais il faut y répondre aujourd’hui).
Les estimations de gains de productivité reposent souvent sur des hypothèses empilées comme un château de cartes : il suffit qu’un seul paramètre soit irréaliste pour que l’ensemble s’effondre.
Souvenons nous qu‘il a fallu très très longtemps pour que l’électricité transforme vraiment l’industrie, le temps de reconstruire et réorganiser des usines qui étaient conçues pour d’autres modes d’énergie et que l’ère de prospérité qui a suivi a demandé, en plus, de violences luttes sociales. Et l’histoire tend à éternellement se répéter (On surestime toujours le changement à venir dans les deux ans, et on sous-estime le changement des dix prochaines années). Comme me le disait un de mes mentors : « il faut du temps pour que les choses se passent rapidement« .
Daron Acemoglou, économiste MIT et personnage a priori crédible puisque récompensé par un prix Nobel semble aller dans ce sens (Daron Acemoglu: What do we know about the economics of AI?) : les effets macroéconomiques de l’IA sont aujourd’hui surestimés, faute de preuves du contraire. Ses travaux suggère une augmentation du PNB d’au maximum 1,6% sur 10 ans avec un gain annuel de productivité de 0,05% voire des gains négatifs sur les professions les moins qualifiées, sans oublier les effets collatéraux négatifs. Selon lui, la question centrale n’est pas de savoir si l’IA va tout transformer, mais comment orienter l’innovation vers des usages réellement complémentaires au travail humain plutôt que de chercher systématiquement à l’automatiser.
On est loin des 14% de McKinsey. Qui a raison ? Peut être Acemoglou dont la méthode m’a l’air plus rigoureuse d’un point de vue économique mais je ne suis pas assez qualifié pour en juger.
Ce que je sais par contre c’est qu’entre 14% et 1,6% il y a un gouffre et que rien ne permet de dire que l’un a tort et l’autre raison sauf à vouloir suivre aveuglément l’hypothèse qui nous arrange le plus.
Une question mal posée
Plutôt que de demander « est-ce que l’IA va remplacer les humains ?« , nous devrions peut être nous demander : pour quelles tâches, avec quels effets systémiques, et à quel rythme ?
L’IA remplace des tâches, rarement des métiers dans leur entièreté. Elle crée aussi de nouveaux besoins : supervision des modèles, conception des prompts, vérification humaine. Chaque vague technologique a vu naître de nouveaux emplois, même si cela prend du temps.
La technologie ne résout pas de problème mais nous aide à les résoudre et, ce faisant, elle en crée de nouveaux que les humains devront résoudre (Technology Doesn’t Solve Problems).
On oublie aussi les effets de rebond : plus de productivité peut entraîner plus de demande. Enfin, les organisations ne changent pas instantanément : leur inertie freine l’impact des technologies, d’autant plus que les cadres sociaux et réglementaires ne suivent pas toujours la même dynamique que l’innovation technique.
La fabrique du discours brouille l’analyse
Une dernière dimension mérite d’être soulignée : ces prédictions fantaisistes ne sont pas seulement le fruit d’un excès d’optimisme ou d’un manque de méthode mais souvent le produit d’un écosystème d’intérêts croisés.
Les cabinets de conseil et les médias, friands de récits mêlant hype et peur, ont tout intérêt à alimenter des scénarios qui nourrissent leur offre, leur influence ou leur audience. Les éditeurs de solutions IA, eux, veulent convaincre les investisseurs que la terre promise est en vue. Quant aux investisseurs eux-mêmes, après avoir injecté massivement des capitaux dans les technologies d’IA, ils ont besoin de dire au marché que les usages sont matures et que le retour sur investissement est proche.
Cette dynamique produit un discours techno-évangélique auto-entretenu, dans lequel il devient impossible de distinguer l’analyse du marketing.
Ce biais influence des décisions politiques, budgétaires et RH : fermetures de filières, réformes éducatives, plans de transformation fondés sur des données peu fiables. En gouvernance comme en stratégie, prendre des décisions fondées sur des chiffres douteux, c’est déguiser l’intuition voire la crédulité en rationalité.
Une asymétrie structurelle entre discours et réalité
Les discours sur l’IA s’accélèrent bien plus vite que les organisations, les systèmes de compétences ou les régulations. Cette asymétrie entre vitesse des promesses et lenteur des réalités crée un décalage entre l’offre technologique et la capacité des systèmes à l’absorber.
Ca n’est pas nouveau, ça prend juste des proportions jamais vues.
Encore une fois il faut faire ici une différence : on peut être d’accord sur la tendance mais admettre que les chiffres ne veulent rien dire.
On peut sentir qu’une vague monte sans pouvoir dire où tombera chaque goutte d’eau.
Oui, l’IA transforme déjà le monde du travail, mais les effets globaux de cette transformation sont encore largement inconnus. Ce n’est pas la peur ou un enthousiasme immodéré qui doivent guider nos décisions, mais la rigueur. Entre les prévisions rigoureuses et les prédictions spectaculaires il faut apprendre à garder la tête froide.
Les chiffres que l’on brandit pour prédire l’avenir de l’IA relèvent bien plus de la spéculation que de la science et aucune équation n’a jamais démontré qu’un tel pourcentage de métiers allait disparaître pas plus qu’il existe un modèle qui soutient les projections à 10 ou 20 ans. Ce sont des estimations construites sur des hypothèses floues, souvent non vérifiables.
Conclusion
Les prédictions sont peut-être justes sur la tendance générale (oui, l’IA va transformer le travail) mais elles sont complètement bancales quand on en vient aux chiffres, les horizons de temps et les impacts concrets. Il serait donc bon de sortir d’une vision technologique quasi prophétique et n’ayant d’autres velléité que soutenir un discours marketing pour revenir à une analyse économique et sociale solide, humble, et évolutive.
Une technologie peut être prometteuse, sans que ses effets soient prévisibles. C’est toute la difficulté de penser l’avenir dans l’incertitude.
Je ne dis pas que rien ne va changer, loin de là, mais que les chiffres avancés ne nous disent absolument rien.
Crédit visuel : Image générée par intelligence artificielle via ChatGPT (OpenAI)