Une des préoccupations premières des entreprises qui se lancent dans la mise en place d’un réseau social d’entreprise est l’identification des experts. Un terme un peu galvaudé, notamment du point de vue des directions des ressources humaines mais qui désigne un problème bien connu : qui est compétent, référent sur un sujet donné, de par son savoir et son expérience. Avec des sujets qui se complexifient de plus en plus, trouver la bonne personne dans une organisation revient à chercher une aiguille dans une meule de foin, d’autant plus que l’expertise en question peut n’avoir aucun lien avec le titre du poste d’une personne voire sa fonction actuelle.
Un réseau social d’entreprise permet de satisfaire en partie ce besoin. Il capte les échanges informels et permet ainsi de lier une personne à un sujet, de capitaliser sur les échanges et de savoir qui connait qui et quoi. Le lien entre personnes, sujets et conversations permettant d’identifier experts et réseaux d’experts sur un sujet.
Un réseau social d’entreprise n’identifie que les expertises…qui sont exprimées sur le réseau social d’entreprise
Une partie du besoin seulement car le mécanisme a ses limites.
Tout d’abord il ne fonctionne que si les individus participent et on connait toute la difficulté de faire adhérer une masse critique d’employés à la démarche, d’autant plus qu’il reste une forte tendance à la centrer sur les communautés de pratiques, laissant ainsi de coté toutes les intéractions « opérationnelles » du flux de travail quotidien. L’expert qui émerge sur le réseau social est souvent…l’expert qui est sur le réseau social, ce qui ne garantit en rien qu’il soit le mieux placé dans l’entreprise pour répondre à une question.
Ensuite parce que le réseau est essentiellement déclaratif. On se proclame compétent sur quelque chose, on gère sa « marque employé ». Bien sur il y a des gardes fous : une gouvernance appropriée qui impose la sincérité, la possibilité pour les membres du réseau de valider une compétence qu’on s’attribue en mot clé, la confirmer, et l’usage qui fait qu’avec le temps et les conversations on se rend bien compte qu’untel est vraiment pertinent sur un sujet où, au contraire, était davantage un usurpateur.
Pourquoi tout recommencer alors qu’on peut exploiter l’existant ?
Enfin parce la mise en place du réseau social est le « temps zéro », t-zéro, de la démarche. Tout est à construire d’une page blanche. Rien de ce qui s’est passé, de ce qui a été dit avant l’arrivée du réseau social d’entreprise n’existe. Et l’essentiel de ce qui passera hors du réseau social ne sera jamais pris en compte.
Assez de limitations qui font que si le réseau social d’entreprise est un pilier d’un dispositif d’identification voire de développement des expertises, il n’est en aucun cas suffisant.
Ce qui m’amène à vous faire part de l’échange que j’ai eu sur le sujet avec Xavier Pornain et Hans-Josef Jeanrond de Sinequa sur la notion d’Implicit Social Netwok – ou réseau social implicite.
Les données sont les « gaz d’échappement » du travail. Recyclons les utilement.
Premier constat, selon Xavier Pornain : « le big data c’est davantage pour nous qu’un concept marketing. 80% de l’information de l’entreprise est non structurée et préexistante à l’arrivée du réseau social, contenue dans des documents ou des applicatifs métiers ». Une évidence qu’on ne peut nier et qui amène a la conclusion que je faisais plus haut : installer un réseau social c’est, pour ce qui est de la partie « expertises » essayer de faire émerger ce qu’on a déjà sous la main mais qu’on ne sait exploiter. « La non structure est un problème informatique; une pile de doc est sans valeur si vous savez pas la catégoriser et la relier au métier du client ».
L’approche « Réseau Social Implicite » revient à indexer l’ensemble des documents et données de travail produits par les salariés et faire ressortir les réseaux d’expertise par du content analytics. Une démarche qui a l’avantage de l’exhaustivité quand on sait que beaucoup de réseaux social d’entreprise se contentent d’une participation de 5/10%. Xavier Pornain ajoute « et aujourd’hui aucune entreprise ne propose un vrai search unifié ». Un vrai gchis quand on imagine ainsi le potentiel, le capital savoir/humain/social/relationnel qui reste inexploité. Et il n’est même pas question de pousser les salariés à partager leurs savoirs et expériences mais simplement de se baisser et ramasser se qui existe déjà . On est sur une valeur actuelle et pas potentielle.
L’exemple de Astrazeneca
Comment une telle démarche fonctionne-t-elle ? Exemple avec le laboratoire Astrazeneca.
Astrazeneca c’est 70 000 salariés, 500 millions de documents dont 40% sont internes à l’entreprise et 60% sur des bases de données médicales externes.
L’objectif a été de construire un dispositif qui relie et détecte des entités métier. La solution a accès aux bases de données qui référencent gènes, maladies, marques, médicaments ainsi qu’aux référentiels structurés (produit, clients, salariés etc…). Le structuré peut ainsi permettre de guider l’analyse du non structuré : il est important de relier l’analyse du non structuré à la structure du business, au métier, pour le mettre en perspective et lui donner du sens.
Ensuite tous les documents ont été indexés et l’analytics permet d’identifier dans un texte ce qui est une personne, un lieu, un médicament etc…et de faire des liens entre ces différentes entités. On peut penser que si une personne est citée dans de nombreux travaux sur un gêne (sans être l’auteur du document) elle a une certaine expertise sur le sujet. De lien en lien on fait émerger le réseau social implicite.
On peut alors poser une question au moteur de recherche, en langage naturel. On donne le nom d’une maladie et il donne des noms de personnes qui travaillent dessus. Une valeur inestimable pour un laboratoire : personne ne couvre seul toute l’étendue des savoirs sur une maladie : il faut donc mettre en relation des praticiens de disciplines différentes. Mais le moteur peut également proposer des noms de personnes, de gènes etc… avec les experts associées. On peut ainsi identifier des personnes à mobiliser sur un sujet donné voire découvrir des sous-sujets plus fins et, là encore, le réseau d’expertise associé.
Le moteur propose également un profile utilisateur dynamique. Dans le cas d’Astrazeneka il affiche pour chacun les médicaments, gènes, principes actifs, maladies…sur lesquels il est expert en fonction de ce qu’il a créé, de ce sur quoi il a travaillé. Et l’utilisateur peut décider de lui-même d’enlever (pas ajouter) certaines données de son profil s’il estime qu’il n’est pas assez compétent sur le sujet.
Une démarche générique en quelque sorte qui peut s’appliquer à des besoins très différents. Dans les services, par exemple, identifier des personnes en fonction des missions réalisées en se basant sur les données du CRM, des propositions commerciales, CVs et des outils de gestion de projet. On peut savoir qui a fait quoi, travaillé sur quoi, avec quels résultats et donc trouver la bonne personne ou la bonne équipe pour un besoin donné. Lorsqu’un besoin est formalisé sous forme de document / fiche de poste, le document peut devenir une question lui-même sans avoir à rentrer toutes ses données individuellement dans le moteur qui ira explorer et analyser l’ensemble des sources indexées. On peut imaginer les applications dans le domaine commercial (retrouver des « bouts » de propositions commerciales et des ressources), juridique (jurisprudence, cas…)etc…
Et bien sur tout cela s’enrichit en temps réel au fut et à mesure que l’entreprise produit des documents, des données, sans demander aux collaborateurs d’aller participer ici ou là pour « faire savoir ». Ce qui résout la question de l' »adoption » propre aux réseaux sociaux : on part du travail réel sans ajouter de tches, sans besoin de documenter ici ce qu’on a fait là .
Par contre la question centrale reste celle des données. On peut poser la meilleure question, c’est le volume et la variété des données qui feront qu’on aura des réponses et des réponses pertinentes. Rappelons que chez Astrazeneka ce sont plus de 500 millions de documents qui sont indexés en temps réel.
Voilà pour ce qui est de savoir comment la démarche se matérialise. Maintenant ça c’est pas sans soulever certaines question.
Tout d’abord la question de la « privacité » des données qui est de plus en plus sensible. Selon Xavier Pornain il a de vraies différences entre les pays. « Dans la culture anglo-saxonne cela ne pose pas de problèmes tant qu’on apporte une valeur business. Les allemands sont, eux, très sensibles sur le sujet mais tout passe par une négociation avec les partenaires sociaux et pas par une loi contraignante. Ils sont en général plutôt pragmatiques dès lors qu’on comprend bien que c’est outil qui permet de trouver et surtout pas de noter. Quant à la France….le fait de ne pas pouvoir indexer les emails est une vraie perte de valeur. » Un sentiment de déjà entendu : il semble bien qu’en France le principal problème du Big Data ne soit pas la technologie mais la CNIL. Avec un vrai enjeu de compétitivité…
La coopération homme-machine est plus forte que la puissance brute
Autre question qui vient à l’esprit : pourquoi donner le lien vers l’expert, vers la personne au lieu de fournir une réponse ou un document. « parce que le document peut être confidentiel et pas accessible donc on donne le nom de l’expert ou parce que l’expert amène le contexte. C’est la différence avec Watson qui donne la réponse. Le meilleur paradigme c’est d’utiliser l’humain quand il est bon et favoriser les itérations humain/ordinateur ».
Hans-Josef Jeanrond complète : « J’ai été interpelé par une vidéo de la confétence TED où quelqu’un disait qu’au début Deep Blue a gagné contre un maître des échecs puis que 3 étudiants ont battu Deep Blue avec 3 PCs normaux et…leur intelligence cumulée. C’est ce qui prouve la valeur de l’interaction homme/machine. La machine est là pour donner de l’assistance, pas de la réponse brute ». Effectivement : parfois la réponse n’existe pas et il faudra passer par l’interaction humaine.
On ne peut pas non plus ne pas se demander si à terme de tels systèmes ne sont pas vouer à tenir la promesse que les réseaux sociaux d’entreprise peinent à concrétiser. Selon Xavier Pornain qui confirme mon sentiment en la matière il n’en est rien. Au contraire le réseau social permet des interactions nouvelles, génère de la donnée qui n’aurait pas été générée ailleurs et à ce titre fait partie des sources avec lequel Sinequa s »interface. De la même manière le profile dynamique généré par Sinequa ne se substitue pas au profil riche du réseau social mais l’alimente en fonction de données issues de l’ensemble du SI afin d’augmenter sa valeur. Le réseau social a, selon Xavier Pornain, vocation à devenir le nouveau portail. Ce qui ne veut pas dire qu’il ne doit pas puiser ses contenus ailleurs…
A ce sujet je retiendrai la remarque pertinente d’Hans-Josef Jeanrond : « on a un problème culturel et sociologique avec le réseau social. Quel est l’intérêt d’écrire en permanence alors que le search amène la réponse quand j’en ai besoin ? Ce qui explique que les collaborateurs y aillent peu ». D’où l’intérêt de faire travailler les deux ensemble.
Vers le Unified Information Access
L’avenir du « social » serait il alors dans le search et le big data ? C’est ce qu’il m’arrive de penser en me disant que faute de faire participer les individus autant utiliser notre énergie à tirer le meilleur de ce qu’ils produisent naturellement. Les données sont « les gaz d’échappement » de notre activité…apprenons à les recycler au mieux.
Sinequa voit plutôt l’émergence d’un nouveau secteur, le « Unified Information Access » et défend une approche originale du sujet par rapport aux acteurs classiques du Big Data :
en proposant du temps réel. « Hadoop est génial pour les data scientists…mais l’utilisateur veut un accès immédiat à la donnée »
en ne se limitant pas au NOSQL mais permettant de se connecter à la fois à du structuré et du non structuré. Si NOSQL il y a cela doit signifier « not only SQL ».
en intégrant des capacités sémantiques et du « natural language processing » aux analytics
Conclusion : beaucoup d’entreprises ont un problème de search là où elles voient un problème de partage
Que retenir de cette longue et intéressante entrevue ?
1°) Que de nombreux DSI cherchent des choses intéressantes à faire en Big Data mais se demandent pratiquement quelles applications business mettre en œuvre. Voilà un cas qui devrait leur donner des idées.
2°) Qu’une des questions essentielles lors du lancement d’un réseau social d’entreprise est de préalimenter les profils utilisateurs avec des données issues des systèmes RH et qu’une valeur ajoutée indéniable serait apportée en y apportant une valorisation de l’existant sans avoir à tout recréer.
3°) Qu’à défaut de faire activiement participer les utilisateurs, il y a beaucoup à retirer de ce qu’ils font au quotidien en matière de production d’information dans leurs outils de travail habituels.
4°) Si le non structuré représente 80% de l’information disponible il prend son sens corrélé au structuré qui représente la structure et l’organisation du business ce qui permet d’appréhender des logiques de valeur métier.
5°) La donné sans l’interprétation, la contextualisation et la valeur ajoutée que lui donne l’humain a finalement peu de valeur. La valeur du Big Data et du search n’est pas dans le traitement ni la donnée mais dans l' »insight », l’interpétation qu’on en fera et les conséquences qu’on en tirera.
Je terminerai en remerciant Xavier Pornain et Hans-Josef Jeanrond pour leur disponibilité ainsi que Claire de Larrinaga qui a permis cette rencontre.