Franz Kafka, juriste de formation et employé d’assurances dans la Vienne impériale a été observateur scrupuleux des mécanismes administratifs de son temps. Ses romans, ses lettres, ses journaux décrivent ce que devient un monde où l’organisation des choses prend le pas sur la compréhension des gens, où la procédure remplace le dialogue et où l’individu, sommé de se conformer à des injonctions incompréhensibles ne sait plus s’il est sujet ou suspect.
Un siècle plus tard, alors que l’intelligence artificielle s’invite dans les rouages des entreprises, des administrations et des plateformes, Kafka est on ne peut plus d’actualité. On pensait que l’IA allait simplifier les tâches, rationaliser les processus, réduire la charge cognitive mais, dans bien des cas, elle ajoute au contraire une nouvelle couche d’opacité, une mécanique qui décide sans expliquer, qui trie sans connaitre et qui applique sans essayer de comprendre.
Que dirait Kafka de ces algorithmes qui rythment voire dictent notre quotidien ? Que reconnaîtrait-il, dans nos systèmes automatisés, des choses qu’il a maintes fois relevé : l’hyper-formalisation, la dépossession des « utilisateurs » et cette machine qui semble créer de l’impuissance au nom de l’efficacité ?
J’ai donc imaginé que je lui posais la question.
En bref :
- Kafka observait déjà un monde où les procédures remplaçaient le dialogue et où l’individu se retrouvait perdu face à des injonctions incompréhensibles ; l’intelligence artificielle prolonge cette logique en automatisant des décisions sans explication claire.
- L’IA, censée simplifier les tâches, introduit souvent une complexité cachée : formulaires, règles implicites, décisions invisibles, qui rendent les systèmes opaques et difficilement contestables.
- La prétendue objectivité des algorithmes est mise en question : les données sont des approximations et leur usage transforme l’individu en simple variable au sein d’un système qui juge sans écouter.
- L’humain n’abandonne pas le pouvoir, il en est dépossédé : il ne peut plus contester ni dialoguer avec une machine qui décide sans visage ni responsabilité identifiable.
- La fluidité promise par l’IA élimine aussi les frictions essentielles au débat, à la contestation, à l’humanité même, installant une bureaucratie sans murs où l’efficacité prime sur l’expression et le sens.
Vous avez décrit des mondes où l’homme se perd dans des labyrinthes administratifs. Que voyez-vous aujourd’hui dans ces systèmes qui intègrent l’intelligence artificielle pour « simplifier » la vie des citoyens ou des salariés ?
Je ne crois pas que la simplification soit ce que l’on cherche véritablement. C’est un mot de façade, un prétexte qui masque un désir d’ordre absolu. Or l’ordre absolu est une violence déguisée. Ce que j’observe dans vos machines intelligentes, c’est moins une simplification qu’une prolifération dissimulée. On dit qu’un formulaire numérique remplace une file d’attente, mais il engendre mille lignes de code, des vérifications croisées, des règles implicites. On supprime un guichet et l’on crée une architecture entière de décisions invisibles.
Dans Le Procès, K. ne sait pas ce qui lui est reproché. Mais il reçoit des convocations, il doit répondre, il doit obéir. Vos algorithmes font de même : ils ne s’expliquent pas, ils notifient, ils appellent sans dire pourquoi. Et on se sent sommé, non par un être humain, mais par une logique qui n’a ni nom, ni visage, ni matérialité.
Mais n’est-ce pas différent, aujourd’hui, dans la mesure où l’on parle de décisions assistées par des données, d’objectivité, de réduction des biais humains ?
Il est dangereux de croire que l’objectivité est un remède. Ce mot est devenu une d’excuse automatique qui dispense de penser. Les données ne sont pas un sol ferme : ce sont des traces, des approximations, des souvenirs mathématiques. Quand un système s’y fie pour juger un homme, son potentiel, sa loyauté, sa valeur, il transforme cet homme en variable.
Dans La Colonie pénitentiaire, la machine grave la sentence sur le corps du condamné sans qu’il la connaisse car elle le suppose qu’il est coupable parce qu’il est là. Vos IA font de même : elles notent, elles trient, elles préviennent. Elles inscrivent des jugements invisibles dans le dossier d’un employé ou d’un demandeur d’asile. Elles n’écoutent pas, elles appliquent.
Cela rejoint l’idée de dépossession. On dit souvent que l’humain perd la main. Est-ce ce que vous ressentez ?
Non, il ne perd pas la main. On la lui prend, puis on la lui rend vide.
Le plus insupportable n’est pas de perdre le pouvoir de décider, c’est de ne plus pouvoir contester. Vous pouvez vous tromper si vous avez en face de vous un interlocuteur mais si la décision vous parvient sans visage, si le refus est signé par un moteur statistique, à qui écrivez-vous ? Où va votre lettre ?
L’humiliation ne vient pas du refus en lui-même mais du silence qui le suit.
Certaines entreprises affirment que l’IA permet de « fluidifier » les process, de « lever les frictions ». Est-ce une bonne chose, selon vous ?
La friction n’est pas toujours un obstacle. C’est parfois ce qui permet à une parole d’avoir lieu ou à une idée de naitre. Ce que vous appelez fluidité est souvent une évacuation de la résistance et sans résistance il n’y a plus d’humanité. Un bouton pour tout résoudre, une interface qui anticipe votre demande, un score qui vous précède : tout cela crée une surface lisse où l’on ne peut plus s’accrocher.
Dans Le Château, l’arpenteur tente d’entrer en contact avec l’administration. Mais plus il avance, plus le système recule. Il n’y a pas de porte, seulement des médiateurs, des interprètes, des bruits de couloir. Votre époque a remplacé ces médiateurs par des scripts mais l’effet est le même : la décision est là, mais on ne sait d’où elle vient. Elle a été prise, on ne sait par qui, où, quand ou comment.
L’IA comme nouvelle forme de bureaucratie invisible ?
Oui, une bureaucratie sans murs. Plus rapide, plus efficace peut-être mais encore plus insaisissable. Dans l’ancien monde, au moins, on pouvait se perdre dans les couloirs. Il y avait des visages, des maladresses, des pauses. Ici, tout est immédiat et dans cette immédiateté, il n’y a plus de place pour la plainte, ni même pour la surprise.
Et pourtant, beaucoup espèrent que ces outils libéreront du temps, réduiront la charge mentale… N’est-ce pas une aspiration légitime ?
Elle l’est. Mais il faut se demander : du temps pour quoi ? Si l’on ne fait que réinjecter ce temps gagné dans un système qui nous évalue en permanence, alors ce n’est pas une libération, mais une augmentation de la contrainte. On vous libère d’une tâche pour vous mesurer sur une autre et la productivité devient un horizon moral.
Je ne suis pas contre les machines. Je suis contre l’idée qu’elles sachent ce que vaut une vie.
Pour répondre à vos questions…
L’IA ne simplifie pas réellement les démarches mais déplace la complexité derrière des mécanismes invisibles. Là où la bureaucratie traditionnelle avait encore des visages et des interlocuteurs, la version automatisée enchaîne règles implicites, codes et décisions opaques. L’utilisateur reçoit des notifications plutôt que des explications et se retrouve face à une logique abstraite. Cette transformation renforce un sentiment d’impuissance similaire à celui des personnages de Kafka, qui cherchent à comprendre un système tout en étant happés par lui.
La simplification affichée masque une prolifération technique difficilement visible. Un formulaire numérique paraît plus simple, mais il repose sur des couches de vérifications et de décisions qui échappent totalement à l’utilisateur. Les algorithmes notifient sans dire pourquoi, ce qui laisse les individus dans le doute ou la contrainte. Cette absence de visibilité rend la procédure plus opaque qu’avant et reproduit une logique kafkaïenne où l’on obéit sans comprendre.
L’objectivité invoquée est trompeuse. Les données ne sont que des approximations qui ne captent pas la complexité humaine. Utilisées pour trier, évaluer ou juger, elles transforment les personnes en variables, comme dans La Colonie pénitentiaire où la machine applique une sentence sans écoute. Cette prétendue neutralité peut légitimer des décisions non discutables, renforçant des jugements invisibles qui affectent salariés ou demandeurs sans qu’ils puissent les comprendre.
La dépossession ne vient pas seulement de la perte de contrôle, mais de l’impossibilité de contester. Une décision humaine permet encore un échange, mais un refus algorithmique ne laisse aucune porte d’entrée. L’article insiste sur ce « silence » qui suit la décision et accroît le sentiment d’humiliation. Sans interlocuteur, l’individu ne sait plus à qui adresser sa plainte. Cette absence de recours devient une caractéristique centrale d’une bureaucratie automatisée.
L’espoir existe mais il y a des limites. Le temps gagné risque d’être réinvesti dans un système qui multiplie les évaluations, renforçant la pression plutôt que de l’alléger. La productivité devient alors une norme morale, et non un bénéfice pour l’individu. Cette dynamique transforme la promesse de soulagement en intensification des contraintes, posant la question de l’usage réel de ce temps soi-disant libéré.
Crédit visuel : Image générée par intelligence artificielle via ChatGPT (OpenAI)








