Comme le climat, l’IA mérite-t-elle sa « COP » ?

-

L’idée de mettre en place une conférence internationale similaire à une « COP pour l’IA », à l’image des COP sur le climat, mérite une réflexion approfondie compte tenu des impacts économiques et sociétaux croissants de l’intelligence artificielle (IA).

Je disais dernièrement qu’il fallait cesser d’avoir sur l’IA des réflexions d’ordre philosophiques ou purement technologique mais regarder de manière pragmatique les enjeux économiques et sociaux qui vont avec (Vers un âge d’or de l’assistanat et de la précarité ? et Les défis que pose l’IA ne sont pas technologiques mais il faut y répondre aujourd’hui). L’idée est que même si les changements d’ampleur qu’elle va provoquer ne se produiront que dans 30 ans rien ne dit qu‘il ne soit pas déjà trop tard pour faire pivoter nos institutions et que la réponse à ces enjeux ne pouvait être qu’internationale (The World Isn’t Ready for the Next Decade of AI).

De là à se demander, vu le séisme qu’elle va provoquer, si l’IA ne mérite pas sa « COP » à l’image de ce qui existe pour le climat il n’y a qu’un pas que je franchis allègrement tant la vacuité des discours politiques sur le sujet me désespère.

Pourquoi une « COP pour l’IA » ?

Tout d’abord parce qu’on a affaire à une technologie à portée mondiale. L’IA transcende les frontières. Ses usages, bien que localisés, sont souvent interconnectés via des infrastructures globales et influencent des secteurs critiques comme la santé, l’éducation, le travail ou la défense. Comme le climat, l’IA est une problématique transnationale nécessitant une coordination mondiale.

Ensuite parce l’IA fait porter un risque que l’on peut qualifier de systémique sur la société et les institutions.

Des risques sociaux comme la discrimination algorithmique, l’exacerbation des inégalités et les menaces sur l’emploi.

Ensuite des risques politiques avec la désinformation, les manipulations électorales ou la surveillance de masse.

On ne peut pas non plus faire l’impasse sur les risques éthiques et les dérives liées à l’autonomie des systèmes (armes autonomes, décisions critiques sans contrôle humain).

Enfin on se doit de mentionner le risque environnemental liés à l’empreinte énergétique des LLM (AI Expert Says That Each ChatGPT Query Is Equal To Wasting Half A Litre Of Water, Implying That There Needs To Be A Sustainability Plan In Place et Environmental impacts of artificial intelligence).

Face à cela il existe bien des initiatives (régulations nationales comme l’AI Act européen, alliances technologiques) mais ils manquent de cohérence globale. Une COP pour l’IA pourrait aligner les efforts internationaux, définir des normes éthiques communes et promouvoir des pratiques responsables.

Des enjeux économiques et sociétaux majeurs

Je ne fais là que rappeler ce que je disais dans mon dernier article mais il est toujours bon de rappeler ce dont dont on parle exactement.

D’un point de vue économique on devra faire face à des questions liées à la redistribution de la richesse. L’IA génère des profits concentrés dans quelques grandes entreprises (Big Tech), ce qui aggrave les inégalités économiques. Une gouvernance internationale pourrait promouvoir une meilleure répartition des bénéfices pour faire face aux enjeux liés notamment à l’emploi.

En effet nous allons faire face à un changement structurel du marché du l’emploi. La destruction d’emplois dans certains secteurs nécessite des politiques mondiales de reconversion et d’adaptation des compétences, certains allant même jusqu’à prôner la mise en place d’un revenu universel pour lutter contre la paupérisation de la société à grande échelle et la fin de l’humain comme outil de production.

Vient ensuite la nécessité d’une innovation responsable. La technologie n’est ni bonne ni mauvaise par nature, tout dépend de ce à quoi on l’utilise.  Encourager une IA au service du bien commun (santé, environnement, éducation) (If Done Right, AI Could Make Policing Fairer) et freiner les applications nuisibles ou inutiles est une solution mais est utopiste hors d’une gouvernance mondiale (Gouvernance Mondiale de l’IA).

Mais l’impact de l’IA a également un volet sociétal avec en premier lieu l’accroissement des inégalités numériques. Un fossé existe entre les pays disposant des ressources pour développer l’IA et ceux qui en sont dépourvus. Une COP pourrait soutenir un accès équitable aux technologies et à la formation et éviter la création de déséquilibres qui pourraient avoir des impacts géopolitiques majeurs.

Se pose ensuite la question de la souveraineté des données. Les questions de contrôle des données personnelles et nationales exigent une coordination mondiale. On est là bien au delà des questions que pose la RGPD et quand on voit les questions liées à son application voire les luttes entre états sur le sujet l’IA impose plus de cohérence et à un niveau plus global.

Enfin viennent quand même des questions d’ordre philosophiques qui sont plus une affaire de valeurs. Faut il des principes universels sur la place de l’IA dans des domaines sensibles, comme la santé ou la justice (Microsoft bans US police departments from using enterprise AI tool for facial recognition) La question peut se poser.

La COP pour l’IA est elle une utopie ?

Si comprendre pourquoi l’idée d’une COP pou l’IA a du sens n’est pas compliqué il est également facile de comprendre pourquoi cela n’existe pas encore et qu’il y a tellement de freins qu’il est probable que ça ne voit jamais le jour voire que de nombreux lobbys œuvreront à contrer ses actions.

Tout d’abord il y a des divergences d’intérêts entre les pays. Comme pour le climat, les pays ont des priorités divergentes selon leur niveau de développement. Certains voudront maximiser les opportunités économiques de l’IA, tandis que d’autres chercheront à en limiter les effets disruptifs, protéger leurs emplois et leurs économies, favoriser leurs acteurs nationaux.

L’IA est aussi un terrain où s’expriment des rapports de force technologiques et économiques, justement entre états et entres géants de la tech que leurs gouvernements respectifs entendent protéger et voir prendre un leadership mondial. Ici la domination des pays développés et des entreprises privées dans le développement de l’IA pourrait compliquer la mise en place de règles équitables.

Enfin le sujet de l’IA est techniquement complexe à appréhender. Contrairement au climat, où les objectifs sont principalement quantitatifs (réduction des émissions), les impacts de l’IA sont souvent plus diffus et complexes à mesurer (biais algorithmiques ou la désinformation).

Des pistes pour une gouvernance mondiale de l’IA

Je sais bien que le débat fait rage quant à savoir s’il faut réguler ou non l’IA et on y retrouve l’histoire bien connue selon laquelle « les Etats-Unis innovent, la Chine copie et l’Europe régule », ce qui n’est d’ailleurs pas faux à tel point que les comportements sont parfois caricaturaux.

On peut penser comme Eric Schmidt que rien se sert de régulier l’IA tant que l’IA n’est pas capable de se réguler elle-même (Eric Schmidt on Henry Kissinger’s surprising warning to the world on AI) mais vu les enjeux on peut également penser que l’adaptation de la société et des institutions non seulement ne se fera pas par hasard mais doit en plus être coordonnée au niveau mondiale afin que ceux qui essaieront vraiment de prendre sujet à bras le corps sur les dimensions économiques, sociales et éthiques n’aient à en payer le prix, notamment d’un point de vue économique.

La question ne serait pas tant celle de l’existence d’une gouvernance que de savoir jusqu’où aller.

Il y a certainement des objectifs qui pourraient faire consensus comme par exemple développer une charte mondiale de l’éthique de l’IA, encourager la transparence des systèmes d’IA (explicabilité, auditabilité), réduire l’impact environnemental des systèmes IA, protéger les droits humains et prévenir les dérives autoritaires.

D’autres par contre, proposés par de nombreux experts et chercheurs, porteraient davantage à controverse voire susciteraient une levée de boucliers. Je pense notamment à l’instauration de mécanismes de redevabilité pour les entreprises et les gouvernements, la création d’un fonds mondial pour une IA équitable, financé par une taxe sur les profits des entreprises de la tech et la mise en place des indicateurs globaux pour suivre l’impact de l’IA sur les inégalités et les droits humains.

Conclusion

L’IA, comme le climat, façonne profondément l’avenir de nos sociétés. Si les COP sur le climat ont mis des décennies à établir un consensus, une COP pour l’IA pourrait suivre un chemin similaire, mais doit agir rapidement face à l’accélération des technologies. Une telle initiative enverrait un signal fort : l’IA n’est pas seulement un outil technologique, mais un facteur de transformation systémique qui nécessite une gouvernance collective et responsable.

Y parviendra-t-on ? J’ai des doutes et malgré les enjeux ça risque de ne rester qu’une vue de l’esprit. Mais, justement, je suis curieux de voir ce que va donner le sommet pour l’action sur l’intelligence artificielle qui aura lieu en France en février prochain.

Les thèmes abordés vont dans le bon sens (l’IA au service de l’intérêt public, l’avenir du travail, innovation et culture, l’IA de confiance, la gouvernance mondiale de l’IA) mais je suis curieux de voir quels chefs d’état et de gouvernements seront présents, qui seront les experts, chercheurs et ONG représentées car cela donnera forcément une couleur à la réflexion.

Est-ce que cela aura une suite ? Est-ce que le sujet s’invitera par la suite dans le débat et les politiques publiques ? J’ai des doutes.

Et vous ? Que pensez vous de tout cela ?

Photo by Stockphotos.com

Bertrand DUPERRIN
Bertrand DUPERRINhttps://www.duperrin.com
Head of People and Operations @Emakina / Ex Directeur Consulting / Au croisement de l'humain, de la technologie et du business / Conférencier / Voyageur compulsif.
You don’t speak french ? No matter ! The english version of this blog is one click away.
1,743FansJ'aime
11,559SuiveursSuivre
26AbonnésS'abonner

Récent