Le « cloud computing » fait des ravages, sinon dans les pratiques en tout cas dans les conversations car ça devient LE terme à la mode…en attendant le suivant.
En tout cas cela correspond, même de manière imagée, à une réalité qu’on ne peut désormais ignorer et qui tient d’ailleurs plus à une question de lieu qu’à une vision technologique : c’est l’endroit où les choses se passent.
Je m’explique. Regardez une personne qui peut, et doit travailler seule, de manière totalement autosuffisante. C’est le modèle, d’une rare efficacité reconnaissons le, qui a été proposé en son temps par Taylor et ses disciples. Une personne n’a besoin d’aucune autre et répète une même tache à l’infini. Pas difficile de savoir dans ce contexte « où les choses se passent » : elles se passent au niveau de l’individu et on sait de quelle manière chacun contribue, fortement ou modestement, à la création de valeur. Les outils sont « on the ground », à coté de leurs opérateurs, qui utilisent les outils sans intéragir entre eux. Tout va pour le mieux dans le meilleur des mondes.
Et un jour le meilleur des mondes prend un sévère coup de vieux.
On se rend compte que seul un collaborateur ne peut rien faire. Il doit échanger avec les autres, faire des choses avec eux. Pire ! Il doit inventer des choses avec eux, innover, trouver des réponses à des questions, régler des problèmes. Pour cela on met des outils à sa disposition : le téléphone (oui ça existe encore), l’email, des forums, des wikis, des blogs…
Sachant que depuis l’ère que nous évoquions, on pilote en général une entreprise par les coûts en posant les questions suivantes : qui fait quoi, pour qui, combien ça coûte, combien ça rapporte…. je vous laisse répondre à ces questions aujourd’hui. Ajoutez à cela que ce modèle suppose le plus souvent que chaque acteur opère indépendamment des autres et peut être évalué en tant que tel, que sa performance n’est en aucun cas impactée par celle des autres ou leur travail…migraine assurée.
Qui fait ?: pas seulement celui qui utilise la réponse trouvée mais tous ceux qui ont participé à sa conception.
Quoi ? : oui, parce qu’on ne peut plus demander « qui fait quoi » d’un seul tenant. Le « quoi » se définit en fonction des problèmes du jour. On peut savoir à l’avance « pourquoi », c’est l’objectif assigné. Mais « quoi.. », ça dépend des jours.
Où ? Dans les lignes téléphoniques, les boites mail et l’intranet. Oui mais où physiquement ? Ca dépend ! Il est où le serveur ? Ah c’est la DSI qui crée la valeur ? Non pas du tout…mais celle elle qui donne les outils pour la créer.
Pour qui ? Pour celui qui a besoin de l’information pour faire son travail, ce qu’on peut simplifier par « satisfaire un client interne ou externe ». Mais c’est tout de même assez fluctuant. Et ça n’est pas exhaustif non plus. Dans un système de capitalisation des connaissances dignes de ce nom tout doit être réutilisable par ceux qui auront un jour la même question, le même problème.
A quel cout ? Ca dépend combien de temps ils vont y passer. Là aussi ça n’est pas prévisible. 10 minutes, une journée…
Pour quel bénéfice ? le prix de la prestation vendue au client, mais également le temps gagné ultérieurement si tout cela est capitalisé. Variable donc, et aucunement lié au temps passé.
Un peu confus non ? En tout cas en termes de traçabilité on fait mieux.
Conclusion : il y a une valeur créée mais elle n’est pas analysable selon les méthodes classiques.
Faute de pouvoir lier la valeur à une entité, une personne, une activité, on continue à appliquer à l’ancien modèle. Ce qui attribue tout le bénéfice (financier comme moral) de l’opération à celui qui se sert du résultat, à celui qui en avait besoin, quand bien même il ne serait que pour 30% dans ce qui a été fait. Tant mieux pour lui.
De fait les autres ne créent aucune valeur. Et par conséquent le temps passé, unité par excellence de la mesure des couts, est du temps utilisé en pure perte. D’autant plus que le manager de ces personnes n’est souvent pas le même que celui de la personne qui s’en est sorti grâce à l’activité du groupe et qui lui se félicite de la capacité de son poulain à trouver des solutions rapides et pertinentes, sans perte de temps, donc d’argent. A coté de ça il y en a un qui constate qu’il n’a profité que de 97 ou 99% de ses ressources et ça l’ennuie. A l’avenir il prendra bien garde que cela ne se reproduise plus, non qu’il soit contre, non qu’il doute que ça serve à quelque chose, mais parce que ça obère sa capacité à atteindre ses objectifs et qu’en aucun cas il ne sera récompensé pour avoir permis aux autres d’atteindre les leurs.
Si seulement il pouvait s’attribuer une partie du résultat ou faire en sorte qu’on ne lui demande pas de tirer le maximum de 100% des ressources investies mais de 95% il serait totalement confortable avec la démarche. Idem pour ses équipes qui verront un intérêt autre que leur conscience professionnelle pour aider les autres au détriment de leur performance individuelle non pas réelle mais mesurée.
Bref, si la valeur se crée dans les nuages et qu’on veut qu’une dynamique vertueuse en termes de collaboration et fonctionnement en réseau se mette en place, il faut se demander comment transformer les nuages en pluie afin d’arroser tous ceux qui ont contribué et permis aux choses de se passer.
Ce qui pourrait se traduire : les nuages sont faits de valeur, mais le compte de résultat se nourrit de gouttes de pluie. Ce qui ramène notre problématique collaborative à une question de répartition et de ventilation.
Tout le monde connait les fameux « 20% Google », ces 20% de son temps qu’un collaborateur doit affecter à des projets personnels, à innover. Inscrire la chose ainsi dans le marbre ne relève pas que d’une logique managériale, c’est également une logique financière d’affectation des ressources qui sécurise les individus et les pratiques. Le manager ne dispose que de 80% du temps de ses équipes, c’est une donnée. A lui de valoriser ces 80%, à Google de donner de la valeur aux 20 autres.
Remarquez qu’on fait cela depuis fort longtemps pour des machines. Cela s’appelle une clé de répartition et c’est une détermination arbitraire de son utilisation pour différents usages. Cela permet de piloter les couts et ne pas faire subir à une seule entité le cout de ce qui permet à tous de produire. Car sans clé de répartition nombre d’investissements fort rentables deviendraient des non sens économiques locaux.
Et si la clé de répartition était ce qui allait permettre à l’entreprise d’adopter les nouvelles pratiques qui lui permettront de s’adapter à des enjeux nouveaux en donnant une représentation plus fidèle de la réalité, donc permettant de piloter cette nouvelle réalité.
On peut aller plus loin dans le modèle Google : un collaborateur c’est, arbitrairement, x% de veille, x% d’innovation, x% de temps donné au service des autres, et x% pour son travail stricto sensu. A adapter selon l’entreprise, voire le collaborateur lui même, sachant que dans les faits ces activités existent, sont nécessaires, et se font malheureusement sous le manteau alors qu’elle sont utiles.
Tiens…et si l’avenir du « cloud computing » n’était pas la clé logicielle mais la clé de répartition ?