Vers le cognitive computing

En deux phrases. Le Social Computing, en multipliant intéractions et informations partagées a mis l’entreprise face à ses limites : l’incapacité de traiter à la vitesse et à l’échelle requise l’ensemble des données dont nous disposons. Une opportunité pour une étape nouvelle : celle du Cognitive Computing et des systèmes intelligents permettant de prendre des décisions informées dans un contexte en évolution permanente.

D’abord on a eu l’informatique, puis l’informatique « sociale » (ou social computing). La prochaine vague concernera-t-elle l’informatique cognitive (ou cognitive computing) ? Tout le laisse à penser.

Les faits sont là : le résultat du social computing est une masse sans cesse croissante de données générées et partagées par les utilisateurs dans et hors de l’entreprise. De manière volontaire, avec l’idée de partager une information, un avis, ou involontaire lorsque la donnée est générée et captée au détour d’une action anodine du quotidien. Ces données permettent à l’entreprise, au décideur, d’améliorer la perception qu’ils ont de leur environnement, de développer une sorte d’intelligence situationnelle, d’identifier les bonnes personnes et bonnes informations pour résoudre un problème, prendre une décision.

Le décideur en manque d’intelligence situationnelle

En générant et utilisant ces données, clients et employées (qui ne sont que les deux faces d’une même personne) transforment nos organisations. Ou, plutôt, créent un besoin de transformation. Les uns en délivrant des données qu’il faut mettre à profit pour prendre des décisions, les autres en étant demandeurs des outils et processus permettant de tirer le meilleur des données en question.

Les transformations en question impactent en effet l’entreprise au delà du périmètre habituel de la gestion des données, au delà de la DSI. Ceux qui, en effet, seront les premiers impactés par le phénomène sont les directions des ressources humaines, directions marketing et directions financières. Car rien ne sert que l’IT leur donne les moyens de traiter ces données si eux ne sont pas prêts à le faire. Et d’autant plus que la donnée de masse est une donnée « sale » par nature et qu’il importe donc de ne voir et ne traiter la donnée qu’au travers des besoins business si on veut la nettoyer, lui donner du sens, en faire une matière opérable et actionnable. De la compréhension et l’utilisation de ces données dépend l’optimisation voire la réinvention des business process, adaptables et pilotables en temps réel non comme des activités planifiées mais comme de la matière humaine

Concrètement parlant la question n’est ni plus ni moins que de savoir comment un directeur marketing va identifier, dans un océan de données, les quelques gouttes qui vont lui permettre de prendre la bonne décision, comment le DRH va identifier les compétences existantes dans et hors de l’entreprise, ainsi que celle qui seront essentielles dès demain.

Conduire l’entreprise en regardant dans un rétroviseur déformant.

Et on aurait tort de ne réduire le sujet qu’à sa seule dimension technologique. Si l’on se fie aux chiffres communément annoncés, plus d’un tiers des décideurs ne fait confiance aux informations dont ils disposent pour prendre une décision. Rien que de très normal si on y regarde bien. En effet le décideur se retrouve le plus souvent dans un ou plusieurs des cas suivants :

- Les informations sont issues d’un traitement de données basées sur l’observation du passé alors que tout le monde convient qu’on est dans un contexte où notre environnement se réinvente en permanence plutôt qu’il ne se répète. Ce qui entraine deux conséquences. La première est qu’on conduit en regardant – au mieux – dans le rétroviseur. La seconde est que le modèle permettant de passer de la donnée à l’information n’est pas pertinent. Autrement dit ce que nous renvoit le rétroviseur ne nous permet pas de déduire la route qui se trouve devant.

- Le temps de latence nécessaire à la mise à jour du modèle rend ce dernier obsolète de facto. Le mécanisme qui permet de passer de la donnée à l’information doit être compris et mis à jour en temps réel à défaut de quoi on tirera toujours les mauvaises conclusions même si on possède les bonnes données.

- l’abondance d’information conduit à une surabondance d’indicateurs dont le traitement est impossible et qui noie le décideur. L’idée n’est pas de traiter toutes les donnée disponibles mais identifier celles qui ont du sens, les corréler,  et comprendre ce sens.

Les analytics : pierre angulaire du système d’information social

De notre capacité à comprendre tout cela dépendra la manière dont on structurera les organisations, conduira les activités quotidiennes et priorisera actions et investissements. Excusez du peu. Avec comme levier le passage d’une relation collective (segment de clientèle, catégorie de salariés) à une compréhension individualisée (clients et salariés en tant que personnes avec enjeux et schémas propres).

Tout cela met en avant une dimension nouvelle, commune à tous les sujets dont nous traitons habituellement. Quel est le point commun entre la collaboration, le management des talents, le marketing, la relation client ? La capacité à comprendre ces données et leur donner du sens. Et s’il est aisé de comprendre que toutes ces disciplines interagissent entre elles, elles ont un et un seul dénominateur commun : les « analytics » qui font que les données recueillies dans un contexte métier soient utilisables, actionnables de manière pertinente dans d’autres. Avec pour objectif de faire reposer les décisions non plus sur la croyance que les modèles passés se répètent mais sur une connaissance approfondie, en temps réel, des schémas qui aujourd’hui dictent l’évolution d’un environnement complexe, basée sur des faits et non des généralisations tendancielles.

Cognitive Computing ou le Big Data humain et apprenant

Une nouvelle ère va donc s’ouvrir où petites et grandes décisions seront prises, à quelque niveau que ce soit, par des personnes ayant une vue et une compréhension exhaustive de leur environnement et de la manière dont il évolue. De nouvelles manière de procéder qui seront supportés par des plateformes d’un nouveau type et une nouvelle approche de l’informatique : l’informatique cognitive (ou cognitive computing).

Bien sur cela n’a rien de nouveau. On en parle depuis déjà un certain temps sous le nom de « big data« . En fait, même s’il ne faut donner au wording que l’importance qu’il mérite, je vois une différence entre les deux. Si « Big Data » touche au traitement massif de données, il n’est qu’une des facettes du Cognitive Computing qui comprend l’analyse et le tagging des données, la détection des modèles et la capacité qu’à le système d’apprendre de sa propre expérience et des données qu’il a généré. Le Cognitive Computing comporte également, à mon sens, le volet humain. Cette évolution ne sera neutre ni en termes de compétences à développer, de modes opératoires à faire évoluer, et de repositionnement de l’individu dans le processus.  Car s’il est un sujet qui fait débat et continuera à le faire pendant longtemps, c’est celui de l’interprétation de l’information. Si l’objectif est que la machine apprenne peu à peu à remplacer l’individu dans la recherche et le traitement brut il y a fort à parier que pour de longues années l’activité d’interprétation de l’information reste l’apanage de l’humain. A condition que l’information soit de qualité, ciblée….et qu’il ait les connaissances et la formation nécessaire. Le « Cognitive » c’est ce qui permet justement de passer de la donnée à l’information, un système qui a vocation à devenir apprenant.

Si les analytics deviennent la « nouvelle langue des affaires » et le cognitive computing la discipline qu’elle sert il est d’ores et déjà essentiel de se poser la question de la dimension humaine d’un tel changement, d’en cerner potentiel et limites afin d’en faire le meilleur usage et ne pas être débordés par un nouveau Frankenstein. Si salariés et étudiants peinent aujourd’hui à maitriser les fondamentaux du social computing, cette indispensable alphabétisation numérique qui fait défaut aux entreprises, on peut d’ores et déjà avoir de sérieuses raisons de s’inquiéter pour la phase suivante.

Prendre des décisions à l’échelle et à vitesse du business

Le social computing et les approches participatives qu’il supporte nous ont montré l’immense potentiel d’un système de partage d’information et d’intéractions en réseau à grand échelle. Il nous a également montré à quel point nous et nos organisations étions limités face à l’ampleur d’un phénomène qui peut rapidement nous dépasser. Le Cognitive Computing n’est pas, comme cela peut arriver, un nouveau buzzword destiné a faire oublier l’échec de la tendance précédente, il est au contraire la rançon de son succès. Nous devons construire des organisations capables de faire face à cet afflux de données et, surtout, capables de les transformer en actions tangibles et informées à une échelle à laquelle nous sommes incapables d’opérer. Donner du sens et prendre une décision sera pour longtemps encore une problématique humaine. Le faire à la vitesse et à l’échelle requise par l’environnement dans lequel nous opérons demande des organisations et des systèmes appropriés.

Si l’informatique a été une affaire de donnée, le social computing une affaire de personnes, le cognitive computing incarne donc une convergence plutôt qu’une prochaine étape : le besoin de faire travailler les uns et les autres ensemble. Et je suis prêt à parier que si d’ici 2 ans maximum plus personne ne se posera plus la question de la participation des individus ni l’adoption des dispositifs participatifs, la question du sens à donner aux données et intéraction ainsi générées sera la principale préoccupation des entreprises.

 
  • Olivier Chaillot

    Bonjour,
    Votre approche est pertinente, il me semble qu’elle s’enrichirait à prendre en compte les comportements observés des acteurs. En effet, l’adhésion (ou l’adoption) des techniques ou des outils n’est pas automatique et il existe encore un certain nombre de freins qui sont loin d’être levés :
    1 – La peur de passer à coté d’une information importante, qui conduit à ne pas faire confiance à un traitement (humain ou automatisé) et amène à « aller voir » ce qu’il y a derrière ou s’il n’y a pas autre chose qui aurait été oublié, …
    2 – La croyance que l’information étant disponible, il est inutile de gérer les flux au fil de l’eau et qu’il suffira de traiter quand le besoin se fera sentir, qui amène à se laisser « déconnecter » progressivement … et il devient difficile de rattraper le train qui est passé.
    3 – Le manque de culture qui ne permet la compréhension (l’assimilation) des données par manque de base, de fondation.
    4 – Sans parler de la difficulté à faire évoluer ses habitudes :):)
    Il y a toujours bien sûr quelques précurseurs qui voient rapidement le profit qu’ils peuvent tirer des nouvelles possibilités …
    Cordialement

  • Antoine ANGLADE

    Bonjour,

    Le sujet est alléchant et prometteur ! En revanche, je ne crois pas qu’un dirigeant pilote son entreprise en regardant dans son rétroviseur mais plutôt qu’il a tendance à considérer la route comme immuable. C’est la même que par la passé. Ainsi, il risque fort de ne pas voir le nid de poule ou le nouveau rond point qui s’y trouve désormais.