Aujourd’hui L’IA est omniprésente et elle est tantôt perçue comme un levier d’innovation, tantôt comme un danger. Mais alors que le débat sur l’éthique fait rage sur l’éthique et que tout le monde parle du rôle de l’IA dans nos vies et du besoin ou non de régulation, j’ai convoqué Isaac Asimov, écrivain, scientifique et inventeur des célèbres « Trois Lois de la Robotique », pour confronter sa vision à notre réalité.
En bref :
- L’objectif initial d’Asimov en formulant les Trois Lois de la Robotique était de renverser l’image du robot comme menace et de mettre en lumière les dilemmes humains à travers la science-fiction morale.
- Asimov rappelle que ces lois étaient un dispositif littéraire, inadapté à une application directe aux IA actuelles, qui ne possèdent ni compréhension ni conscience.
- Il distingue clairement les IA modernes, désincarnées et statistiques, des robots fictionnels dotés de présence physique et de capacités de raisonnement moral.
- Il critique la délégation de responsabilités morales aux IA et souligne que les biais et dérives sont d’origine humaine, amplifiés par des systèmes opaques.
- Il propose de nouvelles lois adressées aux concepteurs d’IA, axées sur la responsabilité, la transparence et l’éthique collective, et invite à une réflexion humaine plutôt que technique sur l’usage de l’IA.
Moi : Monsieur Asimov, vous avez imaginé vos fameuses « Trois Lois de la Robotique » dans Cercle Vicieux, une nouvelle publiée en 1942. Qu’est-ce qui vous a poussé à les formuler à l’époque ?
Isaac Asimov :
Je voulais changer la représentation du robot dans la fiction. Dans les années 1930 et 40, le robot était encore perçu comme une menace, un monstre de métal qui finirait par se retourner contre son créateur, une vision inspirée de Frankenstein. J’ai voulu faire l’inverse : montrer que les dangers ne venaient pas des machines… mais de nous.
Les Trois Lois n’étaient pas des règles techniques. C’était un dispositif littéraire, un prétexte pour explorer la complexité des dilemmes humains. Ce que j’écrivais, c’était de la science-fiction morale, pas un manuel d’ingénierie.
Moi : Voici un rappel pour nos lecteurs :
- Un robot ne peut blesser un être humain ni, par inaction, permettre qu’un être humain soit blessé.
- Un robot doit obéir aux ordres donnés par les humains, sauf si ces ordres entrent en conflit avec la première loi.
- Un robot doit protéger sa propre existence tant que cela n’entre pas en conflit avec les deux premières lois.
Aujourd’hui, certains voient dans ces lois une base pour guider les IA. Est-ce raisonnable ?
Isaac Asimov :
C’est séduisant, mais trompeur. Ces lois n’ont de sens que si on part du principe que le robot comprend ce qu’est un être humain, ce qu’est une blessure, ce qu’est l’obéissance et l’intention. Or, même en 2025, vous n’avez pas créé des êtres pensants. Vos IA ne comprennent pas. Elles corrèlent, elles prédisent, elles imitent mais c’est tout.
On ne peut pas moraliser un système incapable de conscience et morale.
Moi : Donc vous diriez que les IA d’aujourd’hui ne sont pas encore des « robots » au sens de vos romans ?
Isaac Asimov :
Absolument. Les robots de mes histoires étaient des entités matérielles, souvent humanoïdes, dotées de cerveaux positroniques. Ils vivaient dans le monde physique et étaient exposés à des dilemmes réels. Et c’est précisément ce qui me permettait, à travers eux, de poser des questions philosophiques profondes sur la liberté, la responsabilité, la vérité.
Vos IA sont désincarnées. Ce sont des algorithmes distribués. On leur fait faire des choses mais elles ne les vivent pas.
Moi : Et pourtant, les IA génératives sont déjà utilisées pour recruter, diagnostiquer, prédire des comportements. Elles influencent des décisions humaines. Cela vous inquiète-t-il ?
Isaac Asimov :
Ce n’est pas l’IA qui m’inquiète. C’est l’usage qu’en font les humains et, surtout, leur volonté de déléguer des responsabilités morales à une machine.
Quand une IA refuse une candidature, est-ce elle qui discrimine ? Quand un modèle prédictif surestime le risque d’un détenu, est-ce l’algorithme qui est raciste ? Évidemment non. Ce sont des biais humains, amplifiés par des systèmes opaques. Et vous persistez à parler d’intelligence alors qu’il s’agit d’influence automatisée.
Moi : Si vous étiez vivant aujourd’hui, quelles lois formuleriez-vous à la place des Trois Lois de la Robotique ?
Isaac Asimov :
Je les adresserais non aux machines, mais à ceux qui les conçoivent. Voici ma tentative :
- Un créateur d’IA ne doit pas nuire à l’humanité ni, par inaction, permettre qu’elle soit exploitée ou manipulée.
- Les systèmes d’IA doivent être transparents, explicables, et conçus pour servir l’intérêt collectif.
- Les entreprises exploitant l’IA doivent être juridiquement et éthiquement responsables de ses effets.
Et encore, ce n’est qu’un point de départ. Le danger, c’est de croire qu’une règle suffit à compenser une absence de conscience.
Moi : Vos histoires mettaient souvent en scène des dilemmes, des paradoxes. Est-ce ce qui manque aujourd’hui à la réflexion sur l’IA ?
Isaac Asimov :
Oui. Vous cherchez des solutions techniques à des problèmes politiques, sociaux et philosophiques. Vous espérez qu’une « IA éthique » résoudra ce que vous n’avez pas su affronter collectivement : les inégalités, la manipulation, la fuite en avant technologique.
Dans « Les Robots », chaque récit était une manière de montrer que les lois ne suffisaient jamais. Il fallait de l’arbitrage, du contexte, du discernement. Bref, de l’humanité.
Moi : Une dernière question. Croyez-vous que vos récits peuvent encore servir aujourd’hui ?
Isaac Asimov :
Je ne sais pas si mes récits peuvent vous guider, mais je sais pourquoi je les ai écrits : pour que vous n’oubliiez jamais que toute technologie porte en elle une vision du monde. Et que l’éthique n’est pas un module qu’on greffe, c’est une conscience qu’on cultive.
Si mes Trois Lois vous semblent dépassées, c’est peut-être parce que la question à se poser n’est plus : « que peuvent faire les machines ? » mais plutôt « que voulons-nous faire de nous-mêmes ? ».
Crédit visuel : Image générée par intelligence artificielle via ChatGPT (OpenAI)








