« Mais comment se fait il que les entreprises soient autant en retard sur l’adoption de l’IA en interne quand on voit à quelle vitesse cela va côté grand public ? ».
Cette réflexion nous l’entendons à longueur de journée et elle n’est qu’un épisode de plus dans la longue histoire de la consumérisation des outils d’entreprise (L’IA grand public en entreprise : une histoire habituelle de la consumérisation du SI) : les outils et usages grand public finissent toujours par arriver en entreprise avec un temps de retard, temps de retard du aux spécificités du monde de l’entreprise qui demande d’adapter les outils et les usages quitte à se retrouver face à la nécessité de les restreindre.
Mais bien sûr salariés et même parfois managers ne comprennent souvent pas la lenteur de cette démarche. « Ils n’ont qu’à installer ChatGPT » et c’est tout, tout le monde sait que cela fonctionne, on l’utilise au quotidien« .
Et bien non, justement, c’est beaucoup plus compliqué que « juste installer ChatGPT » et comme tout le monde n’a d’yeux que pour les IAs grand public je voudrais ici expliquer en quoi les IAs d’entreprise sont différentes, quitte à vulgariser au maximum.
IA d’entreprise vs. IA grand public
L’IA grand public telle que nous la connaissons tous a essentiellement pour but d’améliorer l’expérience utilisateur, au travers le plus souvent d’agents conversationnels, et adresse des tâches telles l’automatisation, la recherche de réponses, la génération de contenus. Elle utilise des données accessibles au public et s’appuie sur des modèles génériques conçus pour fonctionner à grande échelle, sans personnalisation complexe.
A l’inverse, l’IA d’entreprise a pour but d’optimiser des processus, automatiser des taches complexe, améliorer la prise de décision, obtenir des réponses à des questions métier complexes. Elle utilise les données de l’entreprise et de ses applications internes et est personnalisée pour répondre aux besoins particuliers de chaque secteur, de chaque entreprise, de chaque métier avec des modèles plus sophistiqués et adaptés aux spécificités de l’organisation.
Ceci implique des différences fondamentales qui sont autant de contraintes.
Le scope de données
Comme on l’a dit l’une utilise des données grand public et l’autre des données de l’entreprise.
A première vue cela semble simple à comprendre et ne pas poser de problème outre mesure alors que c’est totalement l’inverse et soulève notamment des questions de silos, de droits et de gouvernance.
Les silos applicatifs : un frein aux IA intégrées
Les données grand public du web portent bien leur nom : c’est tout ce qui est accessible en ligne pour tout le monde sans avoir besoin de s’identifier. En plus elles obéissent toutes à des standards qui régissent la manière dont le contenu est structuré, présenté, et échangé sur le web.
En entreprise c’est l’inverse : le paysage interne est fait d’applications qui hébergent, traitent, communiquent leurs données selon des standards propres à chacun.
Rien n’est librement accessible dans l’entreprise par définition à part la home page de l’intranet. Le reste est personnalisé selon différents critères et niveaux de droits. Quant aux application métier elles obéissent aux mêmes règles : il faut déjà avoir le droit de les utiliser et ensuite, en fonction des droits donnés on y voir et faire des choses différentes.
Ici l’IA va se heurter aux mêmes problèmes que les utilisateurs (L’expérience employé malade de l’industrie du logiciel) elle n’aura que les accès qu’on lui donne, sans même parler du niveau de droit.
Pourquoi ?
Parce que chaque brique applicative est le plus souvent « tenue » par un éditeur qui propose sa propre IA. Un éditeur peut bien sûr fournir plusieurs briques mais il n’en reste pas moins que vous aurez une IA pour le CRM, une pour l’ERP, une pour la bureautique etc… et que l’intérêt de chaque éditeur est de pousser l’utilisation de sa propre IA et pas d’ouvrir ses données à celle des concurrents.
Un motif d’espoir cependant avec l’exemple de Workday et Salesforce qui ont annoncé un partenariat axé sur l’intégration de ces deux grands applications d’entreprise pour devancer la demande croissante d’IA intégrée (Workday Salesforce Partnership: Teaming Up For Enterprise AI).
Peut on s’attendre à voir ce type d’annonce se généraliser ? C’est difficile à dire : ces deux géants du logiciel ne sont pas à proprement parler concurrents, voire sont très complémentaires. Je vois mal SAP et Oracle faire la même chose ni Microsoft abandonner sa chasse gardée qu’est la bureautique.
Les droits : l’IA ne sait pas ce que vous avez le droit de savoir
Une fois résolue la question des accès on pourrait de dire qu’il n’y a qu’à donner à l’IA le niveau maximal d’accès à toutes les informations de l’entreprise.
Ce serait une grave erreur.
Parce que si l’IA a accès à tout elle répondra à une question donnée en utilisant la totalité de l’information en sa possession, et donc possiblement une information à laquelle l’utilisateur n’est pas supposé avoir accès (L’IA générative en entreprise : un casseur de silo ou une couche de plus dans une IT déjà complexe ?).
Exemple caricatural : un RH demande à l’IA quelle est la projection en nombre de salariés à horizon d’un an et l’IA a connaissance d’un plan massif de réduction d’effectifs qui n’est pas encore public.
La gouvernance impacte la qualité des données
Les IA grand public doivent faire avec les fake news et c’est la masse d’information disponible qui les aide à séparer le bon grain de l’ivraie.
Pas de problèmes de fake news a priori en entreprise mais des données parfois en quantité insuffisante (on en parlera plus tard) mais, aussi bizarre que cela puisse paraitre, des données inexactes.
L’entreprise peut connaitre deux problèmes de gouvernance à priori opposés mais qui peuvent souvent se cumuler.
Le premier est une gouvernance forte par endroits qui freine la publication et l’actualisation de l’information. Il se peut que de nouvelles données ou informations à jour existent mais que l’IA les ignore. A contrario si elle les connaissait avant publication elle pourrait soit se baser sur une information non validée soit faire fuiter une information avant sa publication officielle.
La seconde est l’absence de gouvernance de nombreux espaces documentaires ou de stockage, chose que les « drives » personnels et surtout les multiples extranets, intranets, sites internes contribue à aggraver.
Il n’est pas rare de trouver des versions différentes d’un document ou différentes explications d’un même sujet au fur et à mesure qu’on explore les entrailles d’un intranet et des bases documentaires.
De manière plus générale une étude récente a révélé que les entreprises estiment que plus de 40 % de leurs données sont inutilisables et ne sont pas fiables, manquent de qualité, ne sont pas mises à jour, sont inexactes, dupliquées ou incohérentes. Elle ajoute que l’amélioration de la disponibilité des données opérationnelles pour intégrer les outils d’IA est donc le plus grand défi dans la mise en œuvre des technologies d’IA (Data debt hampers AI investments, sustainable processes drive business value)
Une quantité et une diversité de données insuffisante pour entrainer une IA ?
Supposons que les données de l’entreprise soient « propres », ce qui est loin d’être évident. Entre les questions d’actualisation que je viens de mentionner et les systems of record qui regorgent parfois de donnée de piètre qualité (il n’y a qu’à commencer par les LDAPs…) le chantier est énorme.
Mais il faut encore qu’il existe assez de données pour entrainer l’IA. Un sujet mineur, confidentiel, mal documenté voire une entreprise qui par sa taille génère peu d’information ou où la culture est principalement orale (cela existe) manquera de matière pour entrainer une IA.
Les problèmes que peut un jour rencontrer l’IA grand public peut se produire plus vite en entreprise (L’IA peut-elle tomber à court de carburant ou tuer le web ?).
De ce manque de quantité peut résulter un manque de diversité. Un manque de diversité qui va même exister indépendamment de la quantité de données si on a une cohérence dans les pratiques sur le long terme, ce qui peut être facteur de biais.
Si vous attendez, par exemple, de l’IA qu’elle vous aide a recruter de manière plus inclusive mais que votre historique de recrutement favorise des hommes blancs surdiplomés votre IA ne fera que graver cela dans le marbre ! A moins bien sur de l’entrainer avec des données factices lui montrant ce qu’on aimerait à l’avenir car, bien sûr, elle ne va pas apprendre de vos concurrents aux pratiques plus performantes.
Sécurité et confidentialité des données : le risque des IA grand public
Ce qui est sensible avec les IA grand public c’est le risque pesant sur les données personnelles des utilisateurs.
Avec les IA d’entreprise on peut considérer que toutes les données sont sensibles ce qui implique des contraintes fortes sur le choix des prestataires, les modalités d’hébergement, sans parler, bien sûr des sujets liés au RGPD.
C’est paradoxalement une des raisons qui doit pousser les entreprises à avancer sur ces sujet : si elle ne proposent pas d’alternative elle verront leurs collaborateurs partager des données parfois sensibles avec des IAs grand public.
D’ailleurs il est intéressant de lire la réponse de ChatGPT lui même sur le sujet.
« Il est généralement risqué de fournir des données d’entreprise sensibles à une IA générative publique comme ChatGPT, à moins que vous n’ayez des garanties spécifiques sur la confidentialité, la sécurité, et la conformité. Si vous envisagez d’utiliser une IA pour traiter des données critiques, il est préférable de choisir des solutions d’IA conçues pour les entreprises, offrant des options de déploiement sécurisé (comme sur le cloud privé ou local) et une meilleure gestion des données. »
Pas de droit à l’erreur pour les IA d’entreprise
On le sait, les IA grand public peuvent commettre des erreurs en raison de de limitations dans les données utilisées, les algorithmes eux-mêmes, ou leur mise en œuvre dans des contextes réels. Le outils grand public alertent d’ailleurs leurs utilisateurs sur ce point.
En entreprise, dans de nombreux cas d’usages, le droit à l’erreur est proche de zéro et quatre dirigeants sur 10 ne font pas confiance aux données qui alimentent les IA pour produire des résultats précis (Comment les cadres supérieurs perçoivent l’IA).
Un énorme travail de fiabilisation des données est donc nécessaire, ce qui nous ramène à ce qui a déjà été écrit sur les sujets de gouvernance mais il faudra de plus gagner la confiance d’utilisateurs sceptiques voire méfiants.
Un besoin accru de spécialisation
Les IA grand public sont conçues pour des cas d’usages individuels, simples et larges quand les IAs d’entreprise sont prévus pour des cas complexes, sur un corpus de données spécifiques et spécialisées et ses sujets souvent collectifs.
Si le principe de fonctionnement reste le même le niveau de personnalisation requis demande à la fois beaucoup de temps et de moyens.
Pas d’IA sans gouvernance appropriée
Il serait faux de dire qu’il n’y a pas de gouvernance au niveau des IAs grand public mais on est au stade des balbutiements.
Rien d’universel n’existe mais on assiste au début de tentatives de régulations locales encore mal coordonnées, il existe également des régulations sectorielles (comme le RGPD) et le reste est laissé à des chartes éthiques que certains acteurs s’imposent à eux mêmes.
Tout cela fonctionne bien sur pour l’IA d’entreprise avec deux spécificités : la prise en compte de régulations parfois différentes voire opposées au sein d’une même organisation et le besoin de se doter de sa propre gouvernance globale afin de rassurer à la fois ses clients et ses salariés.
Un besoin de ROI plus pressant en entreprise
Pour finir il existe également un paradigme financier différent. Pour l’utilisateur d’une IA grand public la question ne se pose pas : il peut utiliser des services gratuits et basculer dans un modèle payant pour un prix modique s’il en voit la valeur pour bénéficier de fonctionnalités avancées.
La vraie question de la rentabilité pèse, à ce moment sur les éditeurs de ces solutions. Aujourd’hui on sait bien que la situation financière d’OpenAI est tout sauf réjouissante malgré une valorisation sans aucun rapport avec sa performance économique réelle.
Mais si OpenAI ou d’autres disparaissent ça n’est pas le problème de l’utilisateur.
C’est différent dans l’entreprise, et ce peu importe le modèle
Si elle développe ses propres modèles l’entreprise veut la certitude d’un ROI rapide, n’ayant pas les moyens d’un OpenAI pour perdre de l’argent pendant des années.
Si elle a recours à des fournisseurs externes son engagement est moindre mais la pression pas moins forte et les éditeurs B2B l’ont bien compris (Workday CEO: ‘For all the dollars that’s been invested so far, we have yet to realize the full promise of AI’).
Certains appellent même à plus de vigilance :
« « Le problème est que le niveau actuel d’investissement – dans les startups et les grandes entreprises – semble reposer sur l’idée que l’IA va s’améliorer tellement vite et être adoptée si rapidement que son impact sur nos vies et sur l’économie est difficile à comprendre. Des preuves de plus en plus nombreuses suggèrent que ce ne sera pas le cas ». » (Is the AI Revolution Already Losing Steam?)
Ce qui freine naturellement le déploiement de l’IA en entreprise : elles ne s’engagent que sur des cas d’usages où un ROI est probable (IA Générative, quels cas d’usages rentables au final ?) : l’utilisateur individuel de l’IA grand public est un utilisateur, l’entreprise qui la met à disposition de ses salariés, peu importe son choix technologique, est un investisseur).
L’inévitable conduite du changement en entreprise
L’utilisateur individuel qui découvre l’IA, apprend à la maitriser, finit par faire évoluer ses pratiques au fur et à mesure qu’ils progresse sur sa courbe d’apprentissage.
Mais on ne peut pas dire qu’il mène sur lui même une démarche de conduite du changement chronophage et coûteuse.
La réciproque n’est pas valable en entreprise : il faut lutter contre les peurs plus ou moins justifiées, former les gens, inciter à l’adoption… (An AI platform tailored for the enterprise) ce qui signifie souvent des démarches longues et couteuses.
Conclusion
L’IA fera son chemin en entreprise mais cela sera plus long que dans le grand public et sur des cas d’usage très ciblés, en tout cas au début.
Cela ne vient pas non seulement d’une certaine frilosité qui serait compréhensible au regard des enjeux mais qui n’est même pas de mise, c’est surtout en raison d’un contexte et de contraintes qui rendent la démarche plus compliquée et donc plus lente en dépit de la volonté certaine d’avancer.
Mais croire que l’IA fera tâche d’huile en entreprise aussi vite et avec le même succès que dans le grand public serait une erreur : ça n’est pas « juste » déployer ChatGPT.
image : IA d’entreprise de Ju Jae-young via Shutterstock