Résumé : Quand on parle de travail sur l’information, on distingue généralement ce que la machine s’est peu a peu attribué, le traitement en masse de quantités de données selon des schémas pré-établis, et ce qui reste dévolu à l’humain, à savoir une approche plus qualitative et fine sur des données quantitativement importantes mais non dispersées et non structurées. Ce second point a amené les entreprises à s’organiser en conséquence entre ceux qui cherchent, préparent, et ceux qui exploitent. Une dichotomie qui risque d’être remise en cause dans un avenir très proche au fur et à mesure que la machine devient capable non seulement d’explorer des données non structurées mais, en plus, de comprendre une question et formuler une réponse.
Lorsqu’on regarde les grandes composantes d’un système d’information on voit immédiatement que deux grands pôles coexistent.
Celui de la « mécanique ». Il s’agit des applications qui se sont substituées à l’homme parce que plus efficaces ou fiables que ce dernier pour certaines tches, procurant ainsi un bénéfice substantiel tant en termes de vitesse et de qualité donc, autrement dit, en matières de coûts. Elles permettent de mécaniser des traitements de grande ampleur, répétitifs, demandant davantage de la puissance de calcul et de traitement que de l’intelligence et de la capacité de réagir face à l’imprévu.
Celui de l’intelligence. Il s’agit des applications qui ne se substituent pas à l’humain mais sont supposées lui permettre de démultiplier ses capacités intrinsèques qu’une machine n’a pas. On parle ici des technologies de communication et de collaboration.
Si l’on se concentre sur le second point, il est évident qu’à ce jour une machine ne sait comprendre et interpréter des données non structurées avec la finesse nécessaire. Qu’il s’agisse de chercher, exploiter et prendre une décision en s’appuyant sur une grande masse d’information non structurées et sans qu’il existe nécessairement un historique permettant de savoir ce qu’est « une bonne décision ».
Sur cette partie la supériorité de l’homme sur la machine concerne la prise de décision. Pour le reste, ce qui touche à la recherche d’information, c’est davantage un fardeau pour lui, mais un fardeau nécessaire car si la machine dispose de la puissance nécessaire elle est incapable de faire face à l’enjeu d’une recherche qualitative et contextualisée de l’information.
Mais pour combien de temps encore ?
En son temps Google a révolutionné le monde des moteurs de recherche en s’appuyant indirectement sur l’intelligence et les comportements des internautes pour faire évoluer la qualité des recherches. Plus tard des moteurs tels qu’Exalead ont permis d’indexer des informations de toute provenance et de tout format. On a ensuite vu des projets comme Wolfram Alpha qui proposent de ne plus seulement recherche de l’information mais de fournir des réponses. Dernièrement c’est Watson qui ouvre de nouvelles voies en étant capable non seulement de fournir des réponses mais, surtout, de comprendre des questions en langage humain pour restituer la réponse de la même manière en combinant « Content Analytics » et « Natural Language Processing ».
J’ajouterai à cela quelques observations réalisées sur les stands des Labs IBM lors du dernier Lotusphère : l’analyse, le filtrage et la compréhension d’un grand nombre de données, pour présenter ou suggérer à l’utilisateur un contenu synthétisé, contextualisé et pertinent est (à juste titre) une préoccupation d’autant plus essentielle chez Big Blue que la « socialisation » du contexte informationnel du collaborateur, de l’entreprise et client va conduire à une explosion de la masse de donnée à exploiter. Ce phénomène étant inévitable il n’y a que deux solutions possibles : ignorer cette masse que l’on ne peut traiter ou en tirer la « substantifique mà¶elle ». Il est évident que seule la seconde solution a du sens.
Quelles leçons en tirer ?
La question n’est plus seulement de pouvoir trouver la donnée. Il faut la comprendre, la mettre en perspective, en contexte, la filtrer.
L’intelligence logicielle supplantera de plus en plus le labeur humain sur ce point. La machine sera de plus en plus capable non plus de fournir les informations dans lesquelles se trouvent les éléments de réponse à une question mais fournir la réponse elle-même.
Le rôle du l’humain se déplacera de plus vers la prise de décision complexe en fonction des réponses élémentaires fournies. (Notons qu’il est certain qu’au fil du temps la réponse sera de moins en moins élémentaire).
Tout irait donc pour le mieux dans le meilleur des mondes où l’individu serait débarrassé des basses œuvres et pourrait se concentrer sur les actions où sa valeur ajoutée est la plus importante ?
Pas si sur. Comme la révolution industrielle puis la révolution informatique, cette révolution de l’intelligence et du search va rendre obsolète nombre de postes, ceux que l’on nomme les « petites mains » de l’information, en charge, justement, de ce travail de recherche et de préparation à l’usage de leurs supérieurs, des décideurs. Certains se souviennent sans doute du sort qu’on subi les secrétaires personnelles à partir du moment où chacun a pu taper et envoyer des courriers sur un ordinateur…
Bien sur tout cela prendra très longtemps, mais si les dispositions ne sont pas prises, on ne se pose pas la question des compétences que tout cela rendra soit obligatoire soit obsolète, on risque de se retrouver face à une situation problématique concernant des salariés (anciens ou jeunes diplômés) préparés à remplir des fonctions désormais désuètes. Autrement dit, c’est la capacité à décider qui importera de plus en plus, le domaine dans lequel il faudra être bon.