Dans ma série « dystopies » je voulais essayer de décrire des mondes fictifs ou certaines tendances du monde actuel auraient été poussées à l’extrême et, a bien y repenser, je me demande si ce billet mérite bien de figurer dans cette catégorie car finalement il me semble bien que la question n’est pas tant de se demander si le scénario décrit ici va se passer ni même quand mais à quelle vitesse.
Quoi qu’il en soit, depuis quelques années, les transformations portées par l’intelligence artificielle générative puis les agents autonomes ont progressivement remis en cause les fondements mêmes sur lesquels le web s’est construit : son architecture technique, ses modèles économiques, son esprit et ses principes fondateurs. Loin de provoquer un effondrement net ces mutations ont engendré une forme d’érosion continue mais difficile à saisir dans son ensemble, tant elle se passe simultanément à différents niveaux : production des contenus, modes de circulation de l’information, conditions d’accès, modèles de monétisation, qualité cognitive des ressources, diversité des points de vue.
Il ne s’agit donc pas d’une simple crise de transition ou d’adolescence, mais bel et bien d’un changement de paradigme, au sens où les règles implicites de l’écosystème web sont en train de se reconfigurer sans que ses principaux acteurs que ce soit les utilisateurs, les producteurs ou les régulateurs aient réellement pu en débattre ni en anticiper les conséquences.
En bref :
- L’intelligence artificielle transforme profondément le web, non par rupture soudaine mais par érosion progressive de ses structures techniques, économiques et culturelles.
- Les agents IA modifient les usages : ils remplacent la navigation humaine par une extraction automatisée, réduisant les contenus à des données reformulées et décontextualisées.
- Cette évolution fragilise le modèle économique du web basé sur l’attention, en diminuant la monétisation des contenus et en appauvrissant la production qualitative et diversifiée.
- Le contrôle croissant exercé par quelques grandes plateformes centralise l’intermédiation, rendant les producteurs dépendants de critères opaques et réduisant la visibilité des contenus.
- L’usage généralisé des IA entraîne une passivité cognitive chez les utilisateurs et un appauvrissement progressif des contenus, posant un risque structurel pour l’avenir du web.
De la transformation des interfaces à celle des usages
Ce changement n’a pas été provoqué par une décision délibérée et n’a d’ailleurs pas été revendiqué comme tel. Il résulte d’une part, l’augmentation rapide des capacités des modèles de langage et des systèmes génératifs, et d’autre part, une forme de fatigue croissante exprimée par les utilisateurs face à un web devenu dense, désordonné, exigeant sur le plan cognitif, parfois frustrant en termes de navigation.
Dans ce contexte, l’émergence d’agents capables de répondre à la place de l’utilisateur, de formuler des synthèses, de faire un achat ou de rechercher des informations en son nom a été perçue, à juste titre, comme un gain d’efficacité. Peu à peu les attentes ont évolué: on ne cherche plus une information mais on attend une réponse, on ne visite plus un site mais on consulte une synthèse, on ne clique plus sur des liens maison délègue l’ensemble du processus à une interface conversationnelle.
Ce changement va au delà du fonctionnel et constitue en fait un changement dans la nature même du web : en remplaçant la navigation humaine par une extraction automatisée, les agents IA transforment le web en une simple base de données, dans laquelle les contenus ne sont plus des objets d’interaction, mais des ressources à prélever, reformuler, redistribuer.
Un trafic qui se maintient mais ne soutient plus l’économie de l’attention
Les premiers à percevoir les effets de cette transformation ont été les producteurs de contenus eux-mêmes, notamment les éditeurs de sites, les médias numériques, les indépendants. Alors que le volume de trafic semblait se maintenir, il est rapidement apparu que la nature même de ce trafic changeait : une part croissante des visites provenait non plus d’utilisateurs humains, mais d’agents automatisés, qui accédaient aux pages pour en extraire l’information, sans en activer les dispositifs de monétisation ni en respecter les conditions de diffusion.
Autrement dit, les contenus étaient toujours utilisé, mais de moins en moins lus dans leur forme initiale. Ils étaient reformulés, résumés, séparés de leur contexte, puis restitués ailleurs, souvent sans attribution, sans exposition de la source, sans valorisation économique directe pour leur auteur. Pour les petits producteurs, cela signifiait souvent une perte de revenus immédiate, une baisse de visibilité dommageable, voire une sortie progressive de l’écosystème. Pour les plus grands, la réponse a consisté à multiplier les barrières d’accès : restrictions techniques aux robots, formats propriétaires, contenus réservés à des abonnés ou formats conçus spécifiquement pour les IA. Mais ces stratégies, si elles peuvent ralentir le phénomène, ne le remettent pas en cause et la tendance demeure inchangée : les contenus sont absorbés, utilisés, rediffusés, mais plus rémunérés.
Dans ce contexte, la logique économique sur laquelle reposait une large part du web s’effondre lentement mais surement. Le clic n’a plus de valeur et l’économie de l’attention, déjà fragilisée par la saturation informationnelle, perd un de ses piliers.
Une dégradation qualitative difficilement réversible
Au-delà de la question du financement, c’est la nature même des contenus produits et diffusés qui commence à se modifier en profondeur. Lorsqu’un article, un billet, une analyse ou un reportage ne peut plus trouver son public au travers d’une consultation « normale », il devient moins pertinent, moins viable, de continuer à le produire.
Cela entraîne une dynamique d’appauvrissement qualitatif, qui s’accentue à mesure que les contenus longs, nuancés disparaissent ou se raréfient. Les formats courts, immédiatement interprétables, synthétisables en quelques phrases, sont privilégiés, non parce qu’ils sont mieux compris, mais parce qu’ils sont mieux traités par les modèles IA.
Ce phénomène met une sorte de pression sur la diversité stylistique, culturelle, linguistique du web. Ce qui ne peut pas être facilement résumé ne sera pas exposé et ce qui résiste à la simplification est vu comme un bruit.
Par ailleurs, l’utilisateur final n’a souvent plus accès aux sources, ou seulement de manière facultative. Il ne sait plus qui parle, dans quel cadre, avec quelle intention ou avec quels biais potentiels. L’agent IA produit une réponse, pas une réflexion ni un chemin et le web glisse d’un système de liens vers une suite de fragments sans contextes.
Une centralisation croissante
Cette transformation profite à un nombre restreint d’acteurs qui contrôlent désormais les interfaces, les modèles, l’accès au contenu, la manière dont ils sont utilisés. Ce sont eux qui décident de la manière dont les contenus sont extraits, interprétés, exposés. Ce sont eux qui captent les données d’usage, qui définissent ce qui est vu ou pas, qui orientent les comportements voire les pensées.
Les moteurs de recherche, autrefois espaces ouverts, sont remplacés par des agents fermés, personnalisés, non auditables. Le web public devient un simple arrière-plan technique, dont l’utilisateur ne perçoit plus ni la diversité et les producteurs, quant à eux, doivent adapter leurs contenus à des filtres dont ils ignorent les critères et dont ils ne maîtrisent pas les effets.
Dans ce cadre les éditeurs les mieux dotés parviennent à optimiser leur visibilité, parfois à travers des partenariats et les autres s’en remettent à l’aléatoire du classement ou sortent progressivement du jeu.
Une passivité cognitive qui devient la norme
Côté utilisateur, l’adoption massive des agents IA produit une évolution rapide des usages. Le gain de confort est réel, les réponses sont immédiates, lisibles, souvent suffisantes. Mais cette efficacité apparente s’accompagne d’une réduction significative de l’effort cognitif. L’habitude d’explorer disparaît, celle de réfléchir et d’analyser aussi.
Cette passivité ne relève pas d’un choix conscient mais s’installe parce qu’elle est plus simple et que nous sommes par essence partisans du moindre effort. Mais, en même temps, elle fragilise des compétences essentielles liées au jugement critique, à la vérification des sources, à la construction d’une opinion informée. L’exposition à des points de vue contradictoires diminue, et avec elle, la capacité à débattre de manière informée et constructive (L’intelligence artificielle dégénérative : quand l’IA nous fait désapprendre à penser).
Dans certains contextes, cette évolution est même renforcée par des décisions institutionnelles : automatisation de la communication publique, généralisation des outils IA dans l’éducation, synthèse générée pour des documents officiels. L’intelligence artificielle ne filtre plus simplement l’accès au web mais structure l’accès à l’information tout court.
Un appauvrissement inéluctable des contenus
Au fur et à mesure que la production humaine décline ou se devient moins accessible, les modèles d’IA sont amenés à s’entraîner, de plus en plus souvent, sur des contenus générés par d’autres IA.
En se nourrissant de contenus synthétiques, simplifiés, au style uniforme, les modèles perdent en diversité lexicale, en variété d’arguments, en profondeur et variété stylistique. On ne parle pas ici d’une baisse de performance de ces modèles mais de la qualité de ce qu’ils produisent.
La logique était pourtant prévisible : moins de contenus humains veut dire plus de contenus IA donc des IA entraînée sur des contenus IA donc un appauvrissement du modèle et au final un appauvrissement du web. Le cycle est enclenché, reste à savoir s’il est reversible.
Une trajectoire qui peut encore être infléchie
Le web ne disparaîtra pas mais il pourrait perdre une large part de ce qui faisait sa richesse : la diversité des voix, l’hétérogénéité des formats, la possibilité d’exploration. Il pourrait devenir un système d’arrière-plan, utile, exploité mais non consulté.
Il reste possible d’éviter ce scénario. Cela suppose de développer des modèles auditables, des algorithmes transparents, des mécanismes de redistribution équitables et, enfin, de reconnaître que l’attention humaine, la lenteur, la confrontation des idées ont une valeur qu’aucun algorithme ne peut remplacer.
Conclusion
L’idée d’un web cassé par l’intelligence artificielle n’est pas un exercice rhétorique. Au contraire, elle désigne une dynamique déjà enclenchée, dans laquelle les fondements techniques, économiques et cognitifs d’Internet sont progressivement redéfinis sans gouvernance partagée, sans débat, sans qu’on se demande vraiment jusqu’où on va aller.
C’est une dérive qui peut encore être contenue, à condition d’en reconnaître les causes structurelles et les effets.
L’intelligence artificielle ne détruit pas le web mais le transforme selon ses propres logiques : extraction, synthèse, optimisation. A nous de décider si ces logiques sont un bien ou un mal pour la société.
Pour répondre à vos questions
L’IA transforme la navigation : au lieu de consulter des sites, l’utilisateur reçoit des réponses synthétiques produites par des agents. Le web devient une base de données exploitée par des machines plutôt qu’un espace interactif. Cette évolution redéfinit les règles implicites du réseau, touchant l’accès à l’information, la visibilité des sources et les modèles économiques, sans réel débat collectif ni anticipation des conséquences.
L’économie du web reposait sur les clics et l’attention humaine. Or, les agents IA extraient l’information sans générer de revenus publicitaires ni valoriser les sources. Les contenus restent utilisés mais plus rémunérés, ce qui fragilise les éditeurs. Les petits producteurs perdent en visibilité et revenus, tandis que les plus grands tentent de restreindre l’accès ou de créer des formats propriétaires, sans enrayer la tendance de fond.
Les formats longs et nuancés deviennent moins visibles car difficiles à résumer pour les IA. Les contenus courts, facilement exploitables, dominent, ce qui entraîne une homogénéisation stylistique et culturelle du web. L’utilisateur accède surtout à des réponses préformulées, sans sources ni contexte, ce qui appauvrit la diversité et la profondeur de l’information disponible en ligne.
Quelques acteurs contrôlent désormais l’accès et l’usage des contenus. Contrairement aux moteurs ouverts, leurs systèmes sont opaques et définissent ce qui est visible ou non. Ils captent les données d’usage et imposent leurs filtres aux producteurs, créant une dépendance forte et réduisant la pluralité du web. Cela accroît les risques de concentration et limite la liberté d’accès à l’information.
Le risque existe car moins de contenus humains signifie plus de contenus générés par IA, qui alimentent ensuite les modèles, accentuant la simplification. Ce cycle menace la richesse du web. Toutefois, il peut être infléchi par des modèles transparents, une redistribution équitable et une reconnaissance de la valeur des contributions humaines, seules garantes de diversité et de profondeur.
Crédit visuel : Image générée par intelligence artificielle via ChatGPT (OpenAI)








