Je ne sais pas si l’IA est le futur de la digital workplace et c’est une question qu’on pourra surement se poser dans un futur proche mais il est certain qu’elle en fait partie. De l’aide à la recherche d’information à l’automatisation des tâches répétitives en passant par la génération de contenu elle est présentée comme un assistant virtuel disponible 24/24 et capable de digérer des volumes d’informations que personne ne lit plus depuis longtemps.
Mais derrière une promesse alléchante pourrait se cacher une vérité qui l’est moins : si l’IA puise sa valeur dans un système d’information désorganisé elle peut devenir facteur de confusion et d’erreurs à grande échelle.
En bref
- L’IA s’intègre à la digital workplace, mais sa fiabilité dépend entièrement de la qualité des données disponibles.
- Or, les systèmes d’information sont souvent désorganisés : fichiers en vrac, données obsolètes, silos applicatifs.
- L’IA amplifie ces dérives, produisant des réponses erronées, hors contexte ou dévoilant des informations confidentielles sans discernement.
- Le problème est moins technique que culturel : manque de gouvernance, de transversalité et de rigueur dans la gestion des contenus.
- L’IA n’est qu’un miroir du système : pour en tirer parti, il faut d’abord remettre de l’ordre dans l’information.
L’IA ne fait pas le tri mais elle amplifie ce qu’elle trouve
Demander aux collaborateurs d’être aussi concernés par le nettoyage de leurs espaces de travail numériques que ceux-ci le sont avec leurs enfants pour ce qui concerne le rangement de leur chambre serait peut être infantilisant mais pas forcément une mauvaise idée.
Un petit tour sur les disques durs, espaces de stockage en ligne et autres disques partagés ressemble à la visite du cabinet des horreurs. On y trouve des documents nommes n’importe comments, dupliqués, jamais archivés ou effacés alors qu’ils n’ont plus d’utilité. On y trouve également « différentes version d’une même vérité : où trouver une information fiable et définitive quand on a v1, v1_final, v1_final_bis, copie de v1_final_bis etc. ? On y trouve enfin pleins de contenus obsolètes qui malgré tout sont encore utilisés, partagés et circulent non pas parce qu’ils sont fiables mais parce qu’ils sont faciles à trouver et qu’on les a bookmarqué il y a 1 ans.
Ne croyez pas que cela se limite au fichiers dont il serait facile de dire qu’on y peut pas grand chose si les collaborateurs les gèrent n’importe comment. Les données structurées que l’on pourrait penser sous contrôle ne sont pas en reste.
Il m’est arrivé à maintes reprises de travailler sur des projets qui à un moment devaient impliquaient de récupérer des données d’un annuaire d’entreprise, ironiquement nommés Active Directory alors qu’on en vient rapidement à se questionner sur leur caractère actif.
Champs mal nommés, dupliqués, annuaire dans lequel on trouve encore des collaborateurs partis depuis deux ans, des managers qui n’ont plus d’équipe, et des rattachements hiérarchiques incohérents et autres données fantaisistes, erronées, pas mises à jour.
Les CRM ne valent pas mieux avec des doublons clients, des informations pas à jour, des opportunités pas mises à jour suite à leur abandon et des champs remplis à la va-vite pour satisfaire à un process.
Le SIRH n’est pas en reste non plus : affectations erronées, intitulés obsolètes, organigrammes qui ne reflètent pas la réalité…
Ces données servent désormais de matière première aux agents conversationnels et assistants IA intégrés aux outils pour les résultats qu’on peut imaginer.
Contrairement à ce qu’on peut lire ça et là une IA ne commet pas d’erreur pourvu qu’elle ait assez de matière sur un sujet pour ne pas halluciner. Elle peut par contre ne pas être fiable parce qu’elle a été éduquée avec des données pas fiables, obsolètes ou parce qu’il existant plusieurs sources sur un même sujet avec des informations divergentes.
Les vérités alternatives ne sont pas le propre de certains dirigeants outre Atlantique pas plus que les fake news qui empoisonnent les IA sont ne réservées au web grand public. L’entreprise est une machine qui en produit en permanence et ça n’est pas un problème car il est logique d’avoir des versions intermédiaires, des mises à jour ou qu’un jour une source devienne inutile car obsolète. Le problème c’est qu’on laisse les choses en l’état et qu’on ne fait pas grand chose pour améliorer la situation.
Artificielle oui, intelligente parfois
Je ne le répéterai jamais assez : automatiser une mauvaise pratique, c’est la rendre plus efficace, pas meilleure (Les limites de la transformation guidée par la technologie). Mais faire plus efficacement quelque chose de mauvais n’est pas une bonne idée.
Dans le cas de l’IA, cela donne des assistants capables de résumer n’importe quoi, y compris des contenus périmés ou non validés. De croiser des données même si elles sont incohérentes ou incomplètes. De proposer des réponses convaincantes, mais hors contexte, ou causées par des hallucinations dues au fait que l’IA n’avait pas accès à toute l’information nécessaire.
Cela nous amène à un autre problème : le cloisonnement des données.
Beaucoup d’IA sont en effet cantonnées à une verticale applicative. La digital workplace a son IA, l’email a la sienne, le CRM la sienne, pareil pour le SIRH et à peu près tous les outils métiers.
Chaque fournisseur de solution propose en effet sa propre IA et fait tout pour protéger son terrain de jeu c’est à dire empêcher que celle proposée par un concurrent vienne utiliser ses données. C’est une manière de se rendre indispensable, ce qui est une pratique qui est aussi mauvaise pour les outils que pour les personnes (Vous rendre indispensable au travail est la pire chose à faire).
Donc chacun travaille sur sa base, dans sa logique, sans capacité à réconcilier les informations.
De mon point de vue un des cas d’usage le plus intéressant de l’IA est de mettre en perspective les unes des autres des données provenant de silos différents. Un exemple concret : moins de 10% des entreprises sont capables de corréler les données RH et les métriques du business (Is People Analytics the Next Job to Be Outsourced by Technology?). Mais sans collaboration entre les solutions, sans mise en commun des données l’IA n’aidera pas beaucoup.
On a bien sur des contre exemples comme Workday et Salesforce qui travaillent à des agents (Workday Salesforce Partnership: Teaming Up For Enterprise AI) capables de fonctionner sur les données de leurs produits respectifs mais je ne vois pas la chose se généraliser. En effet la particularité de ces deux éditeurs et de n’avoir aucun produit concurrent l’un de l’autre. J’ai du mal d’envisager la même chose entre SAP et Oracle par exemple.
Donc faute de mieux les entreprises devront composer avec cette limite ou trouver des solutions non natives qui seront compliquées et couteuses à mettre en œuvre?
Cela nous donne donc une IA incapable de contextualiser certaines informations et les mettre en perspective. Quand le SI et les données sont organisés en silos, l’IA pense et travaille en silo.
L’IA qui en sait trop… ou pas assez
On n’est pas un paradoxe près : l’IA ne fait pas ce qu’elle devrait savoir faire, mais apprend parfois ce qu’elle ne devrait pas savoir.
Ou, pour être exact, elle ne sait pas ce qu’elle a le droit de répéter à qui.
L’IA est en effet alimentée par des volumes massifs de données internes, elle accède potentiellement à des contenus qu’un collaborateur lambda ne verrait jamais comme des documents confidentiels mal classés ou non ou simplement des informations qui n’ont pas à sortir d’un cercle d’initiés.
On utilise tout le patrimoine informationnel pour l’éduquer et c’est a priori une bonne pratique. Par contre si l’IA a vocation en principe à connaitre de tout elle ne sait pas quelles informations elle a le droit d’utiliser pour répondre à une personne en particulier.
Exemple caricatural mais tant que cela. Un stagiaire ou une jeune recrue du service RH peut devoir faire un dossier synthétique sur l’historique des plans sociaux réalisés dans l’entreprise. Pourquoi pas. Mais si dans le disque partagé par le service RH il y a un dossier réservé à la direction où l’on parle d’un plan en cours de préparation et que l’IA en fait mention dans sa synthèse inutile de vous dire que cela peut poser problème.
Encore une fois le problème n’est pas qu’elle ait lu le document mais qu’elle ne sache pas à qui elle a le droit de parler du contenu ou pas. Elle pourra donc restituer dans ses réponses des informations sensibles, mal interprétées ou sorties de leur contexte, ce qui pose des questions de confidentialité, de conformité et de responsabilité.
Si on considère les IA comme de super assistants, prenez l’exemple d’un Chief of Staff. Il a accès à certaines instances, connait énormément de sujets stratégiques et confidentiels, mais quand un collègue lui parle à la machine à café il sait ce qu’il a le droit de dire à qui. L’IA non.
À l’inverse, elle peut ignorer des informations utiles pour un collaborateur donné , simplement parce que ces contenus sont stockés dans un outil auquel elle n’a pas accès, ou dans un format non exploitable.
L’IA donne va donc parfois une donner une réponse « plausible », mais fondée sur un périmètre de données déséquilibré : trop large sur certains sujets, trop restreint sur d’autres. Cela peut aller jusqu’à l’hallucination.
Lorsqu’elle n’est ni fiable, ni sécurisée, ni contextuelle, l’IA devient peut devenir une source de confusion, voire de risque, a fortiori si les utilisateurs n’ont pas les moyens de comprendre sur quoi reposent ses réponses et de les questionner.
Et oui, contrairement à l’IA grand public, l’IA d’entreprise est loin d’être un long fleuve tranquille en termes de déploiement (Pourquoi l’IA d’entreprise ne peut pas suivre la vitesse de l’IA grand public : au-delà de ChatGPT, une réalité plus complexe).
Une question de gouvernance, pas de technologie
Mon propos ici n’est pas d’avoir un discours à charge sur l’IA : c’est un outil fantastique qui a un potentiel réel et dont il serait stupide de se passer. Oui il y a des des limites techniques et des précautions à prendre mais le problème est d’abord culturel et organisationnel.
Aussi surprenant que cela puisse vous sembler les sujets que je mentionne ici peuvent vous sembler des évidences, des choses à cadrer en amont mais la vérité est que beaucoup de personnes en entreprise, parfois et même souvent des décideurs de très bon niveau, arrivent avec un cas d’usage ambitieux mais sans s’être jamais posé la question de sujets aussi basiques que ceux là, souvent à juste titre car « ça n’est pas leur problème« . Oui, mais il faut bien que ça soit le problème de quelqu’un.
Effectivement l’IA peut aussi venir au secours de la gestion des savoirs (L’IA sauvera-t-elle le Knowledge Management ?) mais encore faut il le vouloir et être conscient des vrais problèmes.
On a longtemps utilisé des outils comme des répertoires partagés sans stratégie d’usage ni pilotage de la qualité du contenu. On a multiplié les flux, les stockages, les formats… sans jamais se demander ce que devenait l’information une fois produite.
Et on attend maintenant de l’IA qu’elle rende tout cela fluide, pertinent, et efficace.
L’IA peut faire beaucoup de chose mais n’est pas magicienne : elle se contente de refléter l’état du système dans lequel elle prend place. En essayant de redonner de la valeur à l’information et à la connaissance elle ne fait que mettre en avant la manière donc ces dernières ont été gérées jusque là.
Aujourd’hui la digital workplace est un système est un système ouvert (trop?), avec une accumulation de contenus peu fiables et de pratiques peu gouvernées.
Retour aux basiques de la gestion de l’information
La gestion de l’information et des savoirs est une discipline aussi vieille que l’informatique de bureau mais certainement une des moins attirantes, souvent vu comme poussiéreuse. Logique : ce que certains voient comme un patrimoine n’est vu que comme un document par ceux qui l’utilisent et chacun n’y prête pas le même soin. Simple différence de perspective.
Mais alors que ces outils se sont commoditisés, que les espaces de stockage deviennent infinis, que la technologie se perfectionne, qu’on produit chaque jour plus d’information que la veille on pourrait se dire que tout cela n’est plus utile. Bien au contraire : les technologies actuelles nous ont permis de faire n’importe quoi en matière de gestion de l’information et si on veut que l’IA nous aide à survivre dans ce contexte il va falloir qu’on l’aide en se disciplinant un peu.
Cela demande remettre le sujet de la gouvernance de l’information en haut de la pile des sujets prioritaires : qui produit ? pour qui ? quel cycle de vie ? quels critères de qualité ?
Il importe ensuite de (ré)apprendre à qualifier les contenus. Un fichier validé ne vaut pas un brouillon ou un « work in progress ». Une donnée à jour prime sur une saisie ancienne non révisée.
Il faudra ensuite s’attaquer aux silos applicatifs. Une IA sans transversalité contextuelle reste un moteur de recherche amélioré.
Enfin il sera question d’instaurer une culture de la production et de l’usage utile de l’information. Toute information non utilisée ou utilisable est un déchet numérique. Toute donnée non exploitée est un coût, pas un actif.
Conclusion
Vous devez vous dire que l’arrivée de l’IA pose finalement beaucoup de problèmes et est potentiellement une réelle source de risque. En effet elle ne va pas résoudre les problèmes de désordre numérique.
Au contraire elle va les accélérer et les amplifier si l’on ne fait rien mais c’est bizarrement là la bonne nouvelle.
Elle agit en effet comme un miroir et renvoie exactement ce qu’on lui donne et vu que son adoption n’est pas une question elle va obliger à voir la réalité et à prendre les mesures qui s’impose pour y remédier. Elle agit en quelque sorte comme un révélateur de la pagaille informationnelle et une exhortation à y mettre fin.
Elle est donc l’occasion de mettre un terme à la dette informationnelle de la digital workplace en nous demandant quelle est la qualité réelle de l’environnement dans lequel nous lui demandons d’opérer ?
Parce que dans un environnement de travail numérique désorganisé, l’IA est brillante mais peu fiable.
Mais ça n’est pas une fatalité. Juste un choix organisationnel.
Image générée par IA par Canva.com