dimanche, novembre 30, 2008

Parler pour ne rien dire … ou appliquer le SelfLean

Je viens de terminer une petite révision de mes classiques en théorie de l'information et de la communication pour un cours que je prépare, lorsque j'ai été frappé par une constatation de bon sens, énoncée par Claude Shannon (le père de la théorie de l'information) :

Une communication qui transporte une information déjà connue par le destinataire a une mesure nulle

Comme le souligne Gérard Batail dans son live « Théorie de l'information », la « quantité d'information est définie comme une mesure de son imprévisibilité ».

On peut facilement arguer qu'il y a des contre-exemples, que cette communication a une fonction de renforcement, d'allégeance, de témoignage, etc. En fait, si l'on étend la condition  « déjà connue par le destinataire » à « je sais que tu sais », les contre-exemples deviennent marginaux.

On arrive alors à un cas particulier et intéressant de l'expression « Parler pour ne rien dire ». On peut « parler pour ne rien dire » lorsqu'il n'y a pas de message :

  • Palabre, préliminaire (« small talk »), synchronisation relationnelle ou émotionnelle,
  • Message confus ou obscur

Le premier cas joue un rôle essentiel dans la communication en tant que processus (un point déjà souligné dans ce blog et abondamment documenté par les sociologues de la communication)

Le second cas est un sujet philosophique classique. Voire par exemples les nombreux corrigés de la question « peut-on parler pour ne rien dire » ou l'excellent cours en ligne de Gérard Barthoux.

Ce qui m'amène maintenant à un troisième cas de « parler pour ne rien dire » : celui ou le destinataire connaît déjà le message. C'est donc le cas du « beau parleur », celui qui se répète, qui s'écoute, qui développe avec des illustrations et des métaphores multiples … la plaie des réunions lorsqu'on s'intéresse à la communication d'entreprise de façon systémique. Nous avons tous des exemples autour de nous. Au bout d'une minute (ou de dix secondes), l'ensemble des participants a compris et nous sommes dans la répétition et dans l'illustration parfaite de la communication à mesure nulle.

A départ, il s'agit d'un « problème » personnel :

  • Ego surdimensionné … ou manque de confiance en soi,
  • Besoin de reconnaissance (mesuré implicitement par le temps de parole obtenu pendant une réunion),
  • Plaisir existentiel a entendre le son de sa voix ….

C'est un sujet de psychologie, voire de psychiatrie sur lequel je ne suis pas qualifié pour m'étendre. C'est également un sujet de sociologie dans la mesure où le « besoin de faire entendre sa voix » fait partie du « nouveau monde 2.0 », de cette société post-moderne, décrite par les sociologues contemporains (cf. mon post sur l'humilité, un sujet qui n'est bien sûr pas très éloigné). Le lien avec la confiance en soi est évident lorsqu'on lit les biographies de nombreux grands savants qui ont frappé leur entourage par leur « économie de mots », par cette capacité à « parler peu pour parler bien ».

Mais c'est également un sujet systémique en termes d'efficacité des canaux de communication, en particulier les canaux synchrones. En effet, les canaux asynchrones permettent de zapper le beau parleur, d'aller droit au but et de compresser (au sens de Shannon :)) les répétitions. En revanche, en point face-à-face ou en réunion, le destinataire est condamné a subir ce gaspillage de la bande passante.

En face-à-face, la nature a inventé tous les signaux faibles de l'ennui pour que le communiquant se rende compte que la communication est inefficace (depuis les yeux qui fuient le contact jusqu'au bâillement, en passant par le dos qui s'avachit).

En collectif (en réunion), il existe également des signaux faibles (comme le faire de regarder son PDA, iPhone ou Blackberry) mais ils sont plus facile à ignorer. 

En conséquence, minimiser le gaspillage de cette ressource précieuse qu'est le temps collectif est un sujet d'efficacité pour l'entreprise. A première vue (car ce thème méritera plusieurs posts) il y a deux approches possibles :

  1. Donner des exutoires, c'est-à-dire d'autres moyens pour ceux qui ont besoin de parler de se faire entendre. C'est précisément une des vocations de l'Entreprise 2.0 : ouvrir des canaux « one-to-many » pour permettre l'expression, comme par exemple les blogs d'entreprise ou les wiki. Comme l'asynchrone ne suffit pas (il faut pouvoir se nourrir du « feedback »), il faut également organiser des lieux de rencontres, des séminaires, des exposés internes.
  2. Travailler sur la culture d'entreprise pour valoriser l'esprit de synthèse et le respect du temps collectif.

C'est ce second aspect qui m'intéresse le plus et que j'ai envie de caractériser sous le titre provocateur de SelfLean. Le SelfLean est l'application des principes du lean à la pratique personnelle d'un individu dans une entreprise, pour maximiser la valeur (contribution) de l'individu à cette entreprise. On retrouve facilement les grands principes :

  • Minimiser les gaspillages (muda), comme par exemple les communications inutiles, le fait de « parler pour ne rien dire »
  • Minimiser la latence lorsqu'on collabore (en rendant un service, dans tous les sens du terme)
  • Travailler en fonction du point de vue de l'Autre (celui à qui on rend service), et en particulier en ce qui concerne la communication !

Ce principe de SelfLean peut sembler utopique, une ascèse du comportement peu réaliste pour des managers ou des collaborateurs clés qui sont précisément sélectionner sur leur capacité à communiquer, à convaincre, à imposer leurs idées et leur vision. L'effacement au profit du fonctionnement collectif me semble en effet irréaliste (et pourtant, c'est la première idée clé du livre de Jim Collins, « From Good to Great », sur lequel je reviendrai). En revanche, définir le SelfLean comme une pratique au service d'un objectif commun, comme une pratique d'optimisation de l'efficacité collective me semble pertinent. La bande passante disponible pour la communication dans l'entreprise est une ressource trop rare pour la gaspiller, et c'est bien le sujet de ce blog.

Pour conclure, je terminerai sur un paradoxe. La bande passante est en fait trop faible, même bien gérée. Pour être efficace, il faut arriver à communiquer sans transmission d'information, par connivence. La connivence entre une équipe de direction me semble un des critères d'excellence dans une entreprise moderne. Et pour développer la connivence, il faut souvent « parler pour ne rien dire » …


samedi, novembre 08, 2008

Dix Idées sur la structure des réseaux sociaux

Je suis en train de préparer un exposé sur les réseaux sociaux. Non pas dans le sens Facebook ou LinkedIn, mais au sens de la structure sous-jacente, que l'on l'étudie en tant que graphe ou du point de vue d'un sociologue.

Je m'intéresse aux réseaux sociaux depuis quelques années, ce qui est visible à travers les différents posts de ce blog. En revanche, il n'est pas toujours facile d'expliquer pourquoi je trouve cette nouvelle discipline scientifique, à la croisée de la théorie des graphes, de la sociologie expérimentale, de la physique théorique et de la psychologie de la communication, passionnante. Cette science a son journal « Social Networks », auquel je me suis récemment abonné, et son association INSNA.

Je me suis donc livré à l'exercice suivant : quelles sont les 10 choses les plus remarquables que j'ai lues, retenues et que j'utilise dans ma propre réflexion. C'est un exercice subjectif (à comparer avec Wikipédia) et doublement difficile : d'une part il est difficile de résumer un concept en quelques lignes, et d'autre part ces idées ne sont intéressantes que par ce que l'on peut en tirer, ce que je n'ai pas le temps de développer. Voici néanmoins ma liste :

  • Le concept le plus visible est la « structure des petits mondes » et sa mesure associée, celle de diamètre. Les réseaux sociaux ont des petits diamètres, par rapport à leur taille, ce qui se traduit souvent par le terme « degré de séparation ». Compte-tenu du fort degré de « clusterisation » (qui mesure la transitivité – du type « les amis de mes amis sont les amis »), c'est inattendu (alors que ce serait normal pour un graphe aléatoire).
  • Ce taux de « clusterisation » (la plupart des réseaux sociaux sont composés de petits groupes fortement connectés – « tout le monde connaît tout le monde ») est largement étudié et documenté. Ce taux de cluster s'explique par l'adage « qui se ressemble s'assemble » et justifie l'utilisation des réseaux sociaux pour calculer des prédictions d'appétence. Les quelques liens en dehors des clusters (les « liens faibles ») jouent donc un rôle essentiels (ce sont eux qui explique le faible diamètre) ce qui est avéré par des études de sociologie, comme celle de Granovetter.
  • Une autre surprise concerne la distribution des degrés dans les réseaux sociaux : cette distribution est presque toujours une distribution polynomiale (« power law ») alors qu'on pourrait attendre une gaussienne (obtenue pour des graphes aléatoires) ou une exponentielle (que l'on retrouve dans des structures physique obtenues par dégénérescence). On la retrouve d'ailleurs dans les graphes de préférence, c'est ce qui justifie l'équilibre économique de la « long tail ».
  • Les réseaux qui ont ce type de distribution des degrés sont appelés « scale-free » et ont des propriétés remarquables (par exemple, de robustesse). Ils sont caractéristiques d'un processus émergent et intelligent de sélection (cf. Buchanan). On les retrouve un peu partout : cooccurrence des mots dans le langage naturel, biologie moléculaire, etc.
  • Cette distribution engendre la présence de « nœuds connecteurs ». Les connecteurs jouent un rôle clé dans la transmission des informations, ce qui a été avéré par différents exemples en sociologie et popularisé par Malcom Gladwell dans « The Tipping Point ». Ce rôle de connecteur se caractérise avec la notion de centralité due à Linton Freeman. Les HP Labs ont fait des études passionnantes sur les logs des emails pour reconstruire les « communautés de pratiques » à partir de cette notion de centralité (un nœud central est un point focal des trajets de transfert d'information).
  • La recherche dans un réseau social est souvent complexe. La condition de Kleinberg permet de comprendre l'équilibre entre deux forces : si il n'y a pas assez de liens, les chemins sont difficiles à trouver, si il y en a trop, il y a tellement de chemins qu'il est très difficile de trouver le plus efficace. Un des points les plus intéressants est la réalisation que la « proximité n'est pas une distance » (essentiellement parce que la proximité dépend de critères multiples), ce qui rend la recherche d'un chemin « de proche en proche » difficile.
  • Les réseaux d'affiliation sont une forme de réseaux sociaux qui m'intéresse particulièrement puisqu'elle décrit la structure du « système réunion » d'une entreprise. Il se trouve qu'il existe également de nombreuses études sur ces réseaux (taux de clusterisation, degrés, etc.), dont celles, célèbres, sur les films et sur les conseils d'administration. Le point le plus important est qu'on retrouve les deux caractéristiques fondamentales : power law et fort taux de cluster (le terme français est « clique », qui désigne un sous-groupe fortement connecté).
  • Les réseaux sociaux se transforment en réseaux d'interaction si on ajoute la fréquence d'interaction comme valuation du graphe d'origine (ce qui est également valable pour les réseaux d'affiliation). Je ne m'étends pas puisque c'est un des sujets clés de ce blog.
  • Il existe des dimensions caractéristiques dans les processus d'interactions entre humains qui déterminent le comportement de certains réseaux sociaux. Un exemple est la célèbre limite de 150 personnes avec lesquelles nous pourrions entretenir des relations « signifiante », due à Robin Dunbar. Cette limite a des applications directes en termes d'organisation d'entreprise. On peut aussi citer les limites que l'on observe dans des situations de responsabilisation collectives (cf. the « Diner Dilemma » ou le syndrome du spectateur rapporté par Christian Morel). Dans le cas du diner dilemma (où les convives doivent choisir entre un plat raisonnable et un plat hors de prix), il y a une « transition de phase » entre un comportement responsable (choix raisonnable, puisque le total est partagé à la fin de façon identique) et un comportement irresponsable (dans l'espoir que ce choix est noyé dans l'anonymat), qui dépend du nombre de convive.
  • Pour terminer, un point clé tiré de CMC (Computer Mediated Communication) qui est un rappel de posts précédents : la communication n'est pas un simple transfert d'information, c'est un processus, un échange dans lequel trois dimensions sont fondamentales : l'affinité (entre les deux nœuds du social net J), l'engagement (« commitment ») et l'attention. Ce dernier point est un contre-point à tous les autres : il ne suffit pas de s'intéresser à la structure ! Une des limites des supports électroniques et un des intérêts du « contact réel » est cette capacité à transmettre et à s'ajuster à des signaux faibles (posture, expressions faciales, intonations, etc.)

Sans rentrer dans le détail, voici les sources principales pour ces 10 réflexions :

  • « Linked » de Albert-Laszlo Barabasi. Un must-read ! en particulier pour comprendre l'importance du concept de « scale-free », les liens avec l'émergence et la robustesse.
  • "Six Degrees" de Duncan Watts. Déjà mentionné moultes fois dans ce blog.
  • « Beyond Bandwidth: Dimensions of Connection in Interpersonal Communication » de B. Nardi (Journal of Computational Supported Cooperative Work (2005, 14 :91-130).
  • "Email as Spectroscopy: Automated Discovery of Community Structure within Organizations" de J. Tyler, D. Wikinson, B. Huberman. Du premier auteur, voir également "When can I expect an email response?"

dimanche, octobre 05, 2008

Entreprise et Systèmes Complexes

Je reprends la plume après une longue absence pendant l’été, partagée entre mon installation dans un nouveau bureau, la préparation d’un cours sur les systèmes d’information et une étude bibliographique sur la systémique. Mon but aujourd’hui est double : faire un petit résumé bibliographique et proposer un cadre de réflexion sur les apports de la systémique à l’entreprise. Ce message est le premier d’une série, le sujet est assez complexe (pun intended). Je dois d’ailleurs commencer par remercier Claude Rochet pour son excellent site qui m’a servit de guide pour ce périple.

1. Systémique générale et systémique appliquée

Une des première difficultés est la largeur du thème : on trouve sous la désignation « systèmes complexes/ analyse des systèmes / systémique / … » un ensemble de réflexion allant de la philosophie (E.Morin) au manuel de programmation (Forrester/ Sterman). Pour simplifier j’ai classé ce que j’au lu en deux catégories :

· La systémique générale qui s’intéresse à la « théorie du système général », aux concepts de système et de complexité. Les réflexions générales sur les systèmes complexes, qui sont très en vogue depuis 10 ans tombent dans cette catégorie.

· La systémique appliquée correspond aux désignations de « system dynamics / dynamique des systèmes/ system thinking ». Il s’agit d’analyser puis de simuler des systèmes réels. Des auteurs emblématiques sont Jay Forrester, John Sterman, Peter Senge (un élève de Forrester qui a écrit le best seller (« The Fifth Discipline »), dont j’ai déjà parlé.

Notons que bon nombre d’ouvrages introductifs contiennent les deux (cf. plus loin). La seconde catégorie se nourrit de la première, mais elle est beaucoup plus orientée sur la simulation, c’est-à-dire la réalisation d’artefacts. L’interface est un ensemble de concepts, dégagés au cours des années par les théoriciens qui les ont abstraits à partir de l’étude d’une multiplicité de systèmes. Voici une liste illustrative :

Ces concepts sont remarquablement pertinents pour quiconque fait de la « systémique appliquée », qu’il s’agisse d’entreprise ou de système d’information. C’est pourquoi la « systémique générale » est un domaine qui mérite l’investissement intellectuel …

2. Quelques références bibliographiques

Je vais commencer, selon la tradition de ce blog, par un résumé de quelques points saillants du livre « La systémique, penser et agir dans la complexité » de Gérard Donnadieu et Michel Karsky:

  • Le livre commence par une excellente vue d’ensemble sur la complexité et les systèmes, avec une introduction claire à la théorie du système général (au sens de Von Bertalanffy ou Le Moigne)
  • Le rôle fondamental de la finalité (téléonomie) dans l’étude d’un système est très bien expliqué dans la section sur les systèmes « hypercomplexes ». J’y ai relevé cette citation de Ross Ashby « La régulation d’un système (complexe) n’est efficace qui si elle s’appuie sur un système de contrôle aussi complexe que le système lui-même », qui s’interprète comme une impossibilité (cf. « Out of Control » de Kevin Kelly). Notons en passant que cette réflexion est très intéressante dans un contexte de contrôle des outils dérivés, suite à la débacle des "subprimes" J.
  • Ce livre est un trait d’union entre la systémique générale et la systèmique appliquée. Il contient également une très bonne introduction aux approches de Forrester/Sterman, avec de très nombreux exemples. En fait, toute la seconde partie est un ensemble d’exemples commentés.
  • Il y a beaucoup de pépites sur le rôle fondamental de la communication (ex. p. 60), ce qui explique ma sélection par rapport aux thèmes du blog. Par exemple, sur le rôle symbolique de la communication, avec une décomposition transfert/relation (toute communication produit un transfert d’information mais crée une mise en relation qui va au delà du transfert).
  • Une présentation de la décomposition du système général en 5 niveaux : système opérant, système d’information, système décisionnel, système intelligent (auto-organisation), système de finalisation.
  • Un excellent chapitre sur modéliser/simuler. Tous les points clés de mon expérience de ces dix dernières années en termes de modélisation/simulation y sont clairement expliqués. Par exemple, la section sur le calibrage p. 132 est remarquable. Notons par ailleurs que c’est le cas pour d’autres livres comme celui de Sterman. Je ne peux que conseiller aux « simulateurs » de lire d’autres livres écrits par des « simulateurs », c’est particulièrement réconfortant J
  • J’ai également apprécié les nombreux « insights » sur le temps de propagation, un des points clé de l’analyse des systèmes complexes, et cela d’autant plus qu’on rentre dans une phase appliquée. Tous ces aspects sont plus que pertinents pour comprendre le fonctionnement d’une entrerpise.

Ce livre est un des plus intéressants de ceux que j’ai lu cet été, au travers du prisme des centres d’intérêt de ce blog. Listons néanmoins quelques autres ouvrages :

  1. « Manager dans la complexité », de Dominique Génelot – un livre qui m’a été suggéré par mon ami François Darbandi. Les chapitres 1 à 6 constitue une introduction brillante et illustrée de la systèmique, avec en particulier une très bonne introduction à la pensée de Lemoigne, encore plus pédagogique et humanisée que celle du livre précéedent. Le Chapitre 7 intitulé « Information, Communication et Connaissance » est dans la droite ligne des réflexions de ce blog. Le reste de l’ouvrage traite du management et de l’organisation à la lumière de cette réflexion systémique. Je le recommande absolument – j’y reviendrai dans un prochain message.
  2. « La Théorie du Système Général », de Jean-Louis Le Moigne – LA référence, mais attention à l’indigestion, se lit et se relit avec un esprit critique. En revanche, « si l’on cherche on trouve » : ce livre est une véritable somme. Je l’utilise en ce moment pour décrire le système d’information et je suis frappé par la pertinence des concepts et des grilles d’analyse proposés. Je peux valider cette affirmation de deux façons. D’une part les grilles d’analyse permettent de mieux comprendre les « frameworks » d’entreprise tels que ceux de Zachman ou du CEISAR. D’autre part, j’ai décliné de façon directe les schéma représentatifs du « systèmes général » (exemple : trois niveaux action/ structure/ évolution vs deux interfaces : environnement et finalité – si tout cela semble abscons, lire LeMoigne, Génelot ou Donnadieu J ; ou encore, les 5 niveaux constitutif allant du système opérant au décisionnel) dans le contexte du SI et le résultat me semble pertinent comme outil d’enseignement (à valider devant les élèves J).
  3. « Feedback Thought » de Georges Richardson – Intéressant surtout du point de vue de l’épistémologie et de l’histoire des idées.
  4. « Introduction à la pensée complexe » de E. Morin. A lire plus tard, une fois qu’on a compris les enjeux, ce qui permet d’apprécier la prise de recul.
  5. « Théorie générale des systèmes », de Ludwig Von Bertalanffy. A lire pour les curieux, c’est le livre fondateur et il fourmille de choses passionnantes (par exemple pour comprendre l’universalité de la « courbe en S », dont je fais un usage immodéré dans mes simulations).
  6. « Les systèmes complexes », de Hervé Zwirn – Moins structuré que les ouvrages que je recommande et certains « zooms » sont durs à suivre pour un lecteur novice (exemple sur l’optimisation), et ennuyeux pour un lecteur compétent (ex : un chercheur opérationnel). Néanmoins le début du livre explique de façon très claire pourquoi l’analyse d’un système complexe est difficile et la fin du livre permet de comprendre les enjeux de la systémique appliquée.

Une autre partie de ma bibliographie estivale a concerné l’application de ces concepts à l’économie (suivant les recommandations de Claude Rochet). Ce sera également un sujet pour un autre post.

3. De la systémique générale à la simulation

Comme l’explique très bien Le Moigne, on peut faire trois choses avec un système complexe : l’analyser, le simuler ou le concevoir (lire sa conclusion pour quelques remarques passionnantes sur les liens entre ces trois activités).

La plupart des livres que je viens de citer explique ce que sont les systèmes complexes et pourquoi ils sont partout. Ils expliquent notamment les limites de l’analyse sur un système complexe (comportement non linéaire, chaotique, etc.). Sur le domaine des systèmes d'information, mon autre blog sur la biologie des SI distribué traite précisément de ce sujet (les limites du contrôle et de l'analyse en matière de qualité de services). La conclusion s’impose qu’il faut pouvoir simuler pour comprendre (ou tout au moins pour s’approprier). C’est le sujet de la systémique appliquée et j’y reviendrai en parlant des livres de Forrester, Sterman ou Senge. En passant, tout ce que je raconte dans ce blog en terme de simulation s’inscrit dans la droite ligne des travaux de Sterman.

Une autre remarque s’impose de façon lumineuse : le « lean » c’est le décomplexifiant de l’entreprise. Une fois qu’on a lu les livres de systémique, c’est évident ! le but du lean est de prendre un système qui est devenu complexe (donc difficile à piloter) et de le réorganiser pour réintroduire la prédictibilité.

Je termine ici ce premier message, mais j’en profite pour rappeler que le meilleur livre que je n’ai jamais lu pour comprendre la notion de système complexe, d’évolution, d’émergence … est « Out of Control » de Kevin Kelly.

lundi, juillet 14, 2008

Désordre et Sérendipité







L'apologie du désordre, voire du chaos, et de la sérendipité est à la mode. Aujourd'hui je vais poster deux petits comptes-rendus de lecture sur ce thème.




Le premier livre est « A Perfect Mess » d'Eric Abrahamson et David H. Freedman. C'est un livre très agréable à lire, drôle, que je recommande comme « lecture d'été ».

Comme toujours, je me contente de noter quelques points saillants, par rapport à mes propres intérêts et par rapport au thème de ce blog. Cette méthode est mal adaptée à ce livre, qui fourmille de petites pensées et remarques pertinentes (sur les files d'attentes, sur l'organisation, etc.).

  • Premièrement, une statistique intéressante : chacun d'entre nous garderait en moyenne une pile de trente-sept heures de « travail à faire » devant soi …
  • Page 30, une digression sur la file d'attente comme outil de «maturation de besoin », qui rappelle ce qui a été dit dans se blog sur l'effet autorégulateur des files d'attentes.
  • Page 116, je recommande chaleureusement « The Seven Highly Overrated Habits of Time Management ». Sans qu'il n'y ait de références au Lean, on trouve des anecdotes qui sont parfaites pour illustrer l'intérêt certains points (tels que le « juste à temps »). Par exemple, le « plan early, plan twice » : un dicton des US Marines qui explique qu'un plan préparé trop longtemps à l'avance perd rapidement sa pertinence. On y trouve également un plaidoyer en faveur de la flexibilité dans les emplois du temps, à la fois parce qu'il faut « saisir les opportunités de faire bien les choses » et parce que tout emploi du temps est inadapté par principe (trop d'incertitude et trop d'inconnues).
  • Le livre, on l'aura compris à partir du titre, vante les effets positifs et nécessaires du « mouvement brownien », du « désordre » et de l'aléatoire. Il contient de nombreux exemples, tirés de l'expérience de laboratoires de R&D, pour rappeler qu'il y a des limites au « pull » en matière de satisfaction client.
  • Sur le même sujet (savoir ce dont le client a vraiment besoin), le livre cite des chiffres intéressants d'IBM (collectés par Joseph Goguen), à propos des projets informatiques. Une étude sur les causes des échecs des projets (dont des échecs massifs à 1.5 milliards de dollars) attribue 20% des causes à des problèmes techniques, 20% à des problèmes d'organisation et 60% au fait que les besoins des utilisateurs n'étaient pas compris. Cependant, pour reprendre un propos de Justin Hectus, lorsque qu'on demande aux utilisateurs comment ils travaillent, « They get it all wrong. People tend to be unaware of the eccentric ways in which they organize their own work processes ». Un autre problème, cité par Goguen, "is that people will often state with great confidence what they want from a system, until they actually see the results, at which point they change their minds". Les auteurs en concluent qu'il faut un peu de "fantaisie" dans le processus de développement de logiciel, on pourrait également déduire qu'il faut un peu de méthode dans l'analyse des processus.



Le second livre est « Everything Miscellaneous » de David Weinberger. Notons en passant que D. Weinberger est un personnage remarquable, par son éducation, son histoire et ses écrits précédents. Voici également quelques points que j'ai notés :










  • L'inventeur de la structure d'arbre serait Porphyre, un philosophe Syrien du troisième siècle avant JC.

  • Une citation de JP Rangaswami, à l'époque où il était CIO de Dresdner Kleinwort, selon lequel l'usage de wikis associés à des projets réduit l'usage du mail de 75%, et réduit de moitié le temps passé en réunion.
  • Page 178, une digression sur l'histoire des structures hiérarchiques, dans les contextes militaires et de chemins de fer, qui rapporte une citation de McCallums « channels of authority and responsibility were also channels of communication ». Cette réflexion se poursuit sur le thème de l'entrelacement entre les structures de contrôle et de communication, un thème cher à ce blog.
  • Les pages les plus intéressantes de mon point de vue sont à la fin (180-182) et portent sur les travaux de Valdis Kreb (voir son blog "Network Weaving". Valdis Kreb est un pionnier de l'analyse des réseaux sociaux de l'entreprise, comme par exemple les graphes d'envoi de mail. Il a constaté que lorsqu'un projet commence à rencontrer des difficultés, le réseau social du projet se contracte et se recentre sur la structure organisationnelle. En clair : on retrouve le bon vieux réflexe tribal qui fait que l'on « serre les rangs » lorsque cela va mal. On peut également interpréter de façon positive le fait qu'un « réseau social étendu » est un signe de bonne santé (d'irrigation) pour un projet. En effet, et c'est tout l'intérêt de la variabilité prônée par ces deux livres, une perturbation de l'ordre (suggérée par Valdis Kreb : déménager les équipes et casser les relations de proximité) a permis de remettre sur ses pieds une des projets qui connaissait des difficultés.
  • Valdis Kreb relate une expérience d'analyse de réseau social à TWR, et comment cette analyse permet de repérer les « nœuds de centralité » (au sens de Linton Freeman), qui sont les individus importants. La même analyse fait ressortir les managers dont les « social skills » laissent à désirer …
  • La théorie (classique) qui veut que l'innovation naisse de l'intersection de flux d'idées est illustrée de façon particulièrement concrète, et dans un sens littéral ! Ron Burt a montré l'importance du positionnement dans un réseau pour être « irrigué » et devenir plus innovant.

Pour conclure, je ne pense pas qu'il faille prendre ces livres « trop au sérieux » : ce sont des contre-points, des rappels à l'ordre salutaires. En revanche, ils n'ébranlent pas ma confiance dans les 5S, au propre (rangement physique) comme au figuré.

Je reviendrai sur les travaux de Valdis Kreb que je me propose d'explorer. Le site de son entreprise est très intéressant et porte précisément sur les sujets de ce blog.

samedi, juin 21, 2008

Les réseaux sociaux sont-ils nos amis ?

Une fois n'est pas coutume, je vais oublier mon regard d'informaticien et de mathématicien sur les réseaux sociaux, et traiter un sujet plus politique, traitant de la vie de tous les jours : le respect de l'individu. Ce que je viens de réaliser depuis 10 jours au travers de quelques conversations va peut-être vous sembler banal, mais précisément, afficher ses réseaux sociaux sur Internet n'est pas banal. A titre d'illustration, voir l'article sur l'employé de qui la justice exige qu'il donne son réseau linkedIn, pointé dans l'excellent blog de JP Rangaswami. Voici une petite démonstration en trois actes …

Acte1 : Le danger du « tout sur Internet »

Nous sommes pressés de tous les cotés pour publier nos informations personnelles ou professionnelles. On peut multiplier les exemples à l'infini et remarquer que le périmètre ne fait que croitre. Par exemple, Google peut gérer vos informations médicales (Google Health). Google est en fait un champion de vos données personnelles, que vous utilisiez le moteur de recherche ou Gmail. Mais Amazon vous connaît également avec une grande précision (si vous achetez des livres sur Amazon, ce qui est mon cas). Il y a des avantages multiples à faire émerger ces bases d'information (entre la publicité qui paye une partie de nos services, la personnalisation qui rend les services plus agréables, etc.). De même la culture « 2.0 » de la publication des informations personnelles fourni le « terreau » qui rend précisément les applications de mise en réseau intéressantes.

Ajoutons que dans notre société « post-moderne », exister sur le Web est un remède à la crainte de l'insignifiance (cf. post précédent).

Il y a également quelques « petits problèmes » :

  • La durée de vie que nous ne maitrisons pas : une fois qu'une information est publiée, elle l'est définitivement. C'est un sujet pour lequel les exemples de mauvaises surprises abondent : des hommes politiques dont on retrouve des citations hâtives, des candidats à des postes de responsabilité qui se voient opposer la liberté de ton dont ils ont fait montre lorsqu'ils étaient étudiants, etc. C'est pour cela que tous les « spécialistes » des blogs/chats/forums/etc. appellent à la prudence éditoriale …
  • L'utilisation des informations personnelles par des entreprises en ce qui concerne leurs collaborateurs ou les candidats à l'embauche: un sujet qui a causé de nombreux scandales aux US, mais il n'y a aucune raison que cela s'arrête. Un excellent article de la Harvard Business Review (un « case study ») y était consacré il y a deux ans. Les progrès constants de la technologie (par exemple, le cloud computing) font qu'il est de plus en plus facile d'extraire des informations de terabytes de données enfouies dans des pages perso ou des forums.
  • L'utilisation des mêmes informations par les banques, les assurances, les entreprises de services auprès de qui nous sollicitons une prestation et qui souhaite nous « profiler » pour réduire les coûts. C'est bien sûr ce à quoi on pense en premier lorsqu'on découvre Google Health. Mais le « périmètre pertinent » pour les banques ou assurances pour évaluer leurs risques est beaucoup plus large. Toutes sortes d'informations (consommation, déplacement, situation familiale, …) sont « utiles » pour calculer un profil.
  • Pour finir, last but not least, il y a la question des autorités civiles et militaires. En particulier, ce que la police peut utiliser (et utilise de plus en plus) pour faire ses enquêtes. Je ne rentre pas non plus dans le détail, c'est un sujet abondamment traité. On peut se réjouir d'une plus grande efficacité pour traquer les terroristes ou pour retrouver les criminels, on peut également s'inquiéter du « big brother », et se demander ce qui se passe lorsque ces outils tombent entre de mauvaises mains.

C'est là que vous vous dites : « bon, heureusement, en France on a la CNIL, et puis, de toutes façons, je fais attention, je n'utilise plus Gmail, et je ne mettrais jamais mes factures médicales sous Google Health, etc. ». En effet, heureusement que nous avons la CNIL … et supposons, pour la suite de ce message, que vous êtes en effet prudent au sujet de votre « e-Self ». Si vous êtes inquiets, il existe des services tels que Scambuster, GetSafeOnline ou autres….

Acte 2 : La force des réseaux: « ce qui se ressemble s'assemble »

Les réseaux sociaux sont des merveilleux outils pour faire du data mining et construire des scores de « predictive profiling ». C'est parce que le proverbe est en fait très juste. Les sociologues savent cela depuis un certain temps. C'est ce qui permet de faire du géo-marketing : les gens qui choisissent d'habiter au même endroit ont beaucoup de choses en commun, et pas simplement d'avoir les moyens financiers d'habiter dans un quartier donné. On peut deviner une foule de choses en connaissant les personnes avec qui vous êtes en relation.

Plus cette relation est intime, plus la prévision devient précise. Un réseau professionnel est plus précis qu'un réseau éducatif, un réseau amical est plus précis qu'un réseau professionnel. Le réseau social des personnes contenues dans le répertoire de votre téléphone est d'une très grande valeur, c'est bien pour cela qu'il doit rester privé !

Les exemples abondent dans de nombreuses industries. Ce thème est abordé plusieurs fois dans l'excellent blog de Fred Cavazza (par exemple ou encore). En assistant à une conférence organisée par SAS, j'ai pu écouter différents exemples dans lesquels on infère des propriétés d'une personne à partir de celles de membres d'un de ses réseaux. Cela marche très bien en utilisant les graphes d'appels, ou les graphes d'envoi de SMS (pour les raisons susdites de CNIL, les exemples en questions n'étaient pas situés en France).

Acte 3 : Qui sont vos amis ?

A ce stade, je suppose que vous voyez où je veux en venir : que ce passe-t-il si vous êtes prudent, mais que vous exposez vos réseaux sociaux et que vos amis, eux, sont moins prudents ?

  • Si certains de vos amis exposent leurs profils médicaux, vous êtes à risque. Un assureur pourrait vous affecter une « probabilité de comportement à risque » si ce risque est décelé dans ce réseau social. Exemple : fumer, bien manger, conduire trop vite, acheter trop de bons vins en ligne, trop de livres de pâtisserie sur Amazon.fr, etc. Bien sûr, vous ne le verrez jamais, mais le taux d'emprunt de la banque, ou le montant d'une option de couverture de votre mutuelle santé peut-être subrepticement relevé …
  • Si certains de vos amis laissent transparaitre des profils de dépenses, on peut faire des inférences sur votre « style de vie ». Le « on » pourrait être un jour les services du fisc, encore des banques dans le cas d'un emprunt, voire un futur employeur un peu méfiant.
  • Si vos amis ont des activités politiques singulières, ou prennent des positions marquées en public, vous serez repéré « par association » …

Bien sûr, je force un peu le trait. Par ailleurs, je suis loin d'être exemplaire/prudent : j'expose beaucoup d'information (page perso, blog, …), je suis un consommateur des réseaux sociaux (LinkedIn ou Facebook) et j'utilise des outils tels que Gmail ou Google docs. Mais plus j'y réfléchis, plus le « réseau social » me semble une donnée personnelle, précieuse et intime.

La conséquence logique de cette « démonstration » est que vous avez le choix entre deux approches :

  1. Contrôler ses amis : s'assurer qu'ils ont la même déontologie de l'exposition sur le Web que vous …
  2. Ne pas exposer ses réseaux !

Des commentaires ?

samedi, juin 07, 2008

Réflexion sur le coupage hiérarchique/comités

En réfléchissant sur mon sujet favori des « réunions qui fonctionnent mal », je suis tombé sur une constatation évidente, qui représente un couplage entre les deux canaux de communication que sont les comités et la hiérarchie.

Le point de départ est le problème classique de la « difficile délégation », qui fait qu'on retrouve souvent une « ligne hiérarchique » présente autour de la table : l'interlocuteur désigné, son chef, voire le chef de son chef, etc. Remarquons que cela fonctionne également dans l'autre sens : le directeur concerné, son N-1 qui s'occupe plus précisément du domaine, son N-2 qui connaît vraiment le sujet, etc.

En théorie, seule une réunion d'information (celle où l'on vient pour s'asseoir, écouter et apprendre) justifie la présence de lignes hiérarchiques (en effet, il n'est pas interdit aux chefs d'apprendre) :

  • Quand il s'agit d'une réunion de partage/échange/brainstorming, le bon participant est celui qui sait, la ligne hiérarchique doit être informée ensuite, en utilisant les outils de ce canal (point, rencontre fortuite, mail, etc.).
  • Quand il s'agit d'une réunion de décision, le bon participant est celui qui a le pouvoir de décision J Cette tautologie implique que la délégation fonctionne : Si A délègue à B, B doit être le seul présent à la réunion (pour la simplicité et la « tranquillité mentale » des autres participants, je vais y revenir). En ce qui concerne les N-1 ou N-2 qui sont experts, cette information doit être assimilée à l'avance, en préparation de la réunion. C'est un effort de la part de celui qui vient (le « décisionnaire »), mais un vrai facteur d'efficacité pour prendre effectivement une décision.

Dans ces deux cas, on a (on devrait avoir) un « tissage » des canaux « hiérarchiques » et « comités » (M->H et H->M respectivement, en prenant les notations issues de SIFOA).

Ce n'est malheureusement pas ce qui se produit, pourquoi ? On observe que si le manager n'a pas le temps de préparer, il amène avec lui ses N-1/N-2/etc. en réunion (ce que je vais appeler le « carry-on » phenomenon). La réunion se met à jouer un rôle multiple : il existe une « réunion dans la réunion » qui sert à synchroniser l'équipe d'une direction donnée qui participe à cette réunion. Le flux d'information qui aurait du avoir lieu avant ou après se trouve inclus dans la réunion.

On observe facilement ce que le modèle prédit : l'apparition du carry-on est fortement corrélée à la pression temporelle (la difficulté de trouver le temps de préparer la dite réunion correctement). Plus la pression augmente, plus les hiérarchies sont aplaties, plus le nombre de réunions s'accroit, plus l'apparition d' « équipes hiérarchiques » est fréquente.

Là où les choses se corsent, c'est que l'équipe en question prend le prétexte de l'efficacité pour justifier sa pratique. Prenons le cas simple d'un doublon. Le décisionnaire vient avec son collaborateur qui connaît mieux le sujet que lui d'un point de vue opérationnel. De son point de vue, c'est très efficace :

  • Il remplace deux réunions (une à deux personne – le point de préparation - et une à X personne – la réunion de décision) par une seule à X + 1 personne.
  • Les autres participants ne lui semble pas vraiment perdants, puisque « leur seule perte » est de passer de X à X+1 participant (soit une perte de temps de parole de 1/X^2).

L'erreur de raisonnement vient du fait que si tous les participants appliquent le même raisonnement (ce qui est souvent le cas !) on passe à une réunion de taille 2X, ce qui dégrade très fortement la capacité à décider (cf. le post précédent). Le paradoxe vient précisément du fait que, alors qu'il y a un consensus sur l'impossibilité de tenir une réunion de décision (réelle, avec appropriation de la décision, ce que dont je discute dans mon livre), il est difficile de percevoir la dégradation marginale. C'est une sorte de paradoxe du tas de sable (Si N grains forment un tas, alors N-1 sont encore un tas) à l'envers. Notons qu'il n'existe pas, bien sûr, de formule magique qui permettrait de connaître l'efficacité d'une réunion en fonction du nombre de participant. Chaque culture, chaque entreprise, chaque situation est différente, ce qui facilite précisément la pratique du carry-on.

Nous sommes également en pleine « tragédie des commons », c'est-à-dire une situation dans laquelle l'optimum de chaque individu est de surconsommer un bien commun au détriment de l'optimum global. Ici le bien commun est difficile à saisir : c'est une fenêtre de temps de qualité propice à une prise de décision (et de fait, la participation à une réunion importante est un trophée, un bien symbolique). Une règle de bonne gestion de la délégation qui demande à chaque département/direction/équipe de ne se faire représenter que par une personne lors d'une réunion transverse n'a pas de valeur pour chaque « tribu » mais seulement pour l'entreprise dans son ensemble.

C'est pour cela que nous tombons, une fois de plus, sur un sujet de régulation collective. L'entreprise doit introduire des règles pour favoriser des bonnes pratiques de délégation, comme un acte de protection d'un bien collectif. Ce point est d'autant plus important que l'entreprise est grande et complexe. Dans ce cas, pour bien fonctionner, l'organisation globale a besoin que chacune de ses parties accomplisse un travail de « compression » de l'information au niveau de ses interfaces. Il ne s'agit pas simplement de faire une synthèse, de simplifier (même si cet aspect est également important), il d'agit également de déléguer, c'est-à-dire de réduire le nombre de partie prenantes. Cela demande bien entendu un travail de préparation, puisqu'il faut réduire le nombre d'intervenants nécessaire pour représenter une direction/sous-partie/etc. C'est une « compression » en tant qu'opération appliqué à un ensemble, celui des « interlocuteurs ». Comme toute compression, elle produit de la chaleur et requiert du travail. La valeur de ce travail ne se voit que globalement, parce que la circulation globale de l'information, de la signalisation et la prise de décision ne fonctionnerait pas globalement aussi bien sans cet effort.

L'analyse des flux d'information et du temps nécessaire à leur transport permet de détecter de nombreuses autres situations paradoxales et intéressantes. Par exemple, un bon chef de projet doit produire un effort semblable de compression et aller voir chacun des interlocuteurs séparément, au lieu de « convoquer » des réunions de façon trop fréquente. C'est une loi empirique : un bon chef de projet use ses chaussures, et évite les réunions où tout le monde s'ennuie en attendant son tour pour parler. De son point de vue, 10 point individuels de 10 minutes et une réunion d'une heure avec les 10 participants sont plus longs et fatigants qu'une « belle réunion » de 2 heures avec les même dix participants, mais l'intérêt global de l'entreprise est clairement en faveur de la première solution. Voici donc un sujet à suivre …





samedi, mai 31, 2008

Diverses réflexions sur le hansei et le kanban

Je reviens aujourd'hui sur le thème du « Lean Knowledge Worker » avec quelques réflexions disparates.

Avant de commencer, je voudrais partager un excellent blog sur le lean : http://www.gembapantarei.com/.
Je vous laisse le découvrir, le niveau de maturité et de pertinence est clairement un cran au dessus de ce qu'on trouve en se promenant aléatoirement avec Google.

Mon premier thème sur jour est l'humilité, qui est une condition nécessaire à la pratique du lean, en particulier le kaizen. Cette humilité prend plusieurs formes, dont la capacité à réfléchir sur ses erreurs, ce que les japonais appellent le Hansei. Je ne vais pas faire semblant d'être un spécialiste du Japon (et le Hansei est véritablement une pratique qui est liée à la culture). Ce sujet est merveilleusement développé dans le livre de J. Liker « The Toyota Way » qui est mon compagnon de route favori sur ces sujets. L'humilité se traduit ici par une véritable acceptation des erreurs, ainsi que des causes de ces erreurs (et de façon récursive, d'où la méthode des « Cinq Pourquoi »). Le mot « acceptation » ici est profond : il n'y a pas de culpabilité ou de jugement de valeur. Pour paraphraser Deming, il faut « chérir ses erreurs » car elles portent chacune les germes du progrès. La recherche de l'amélioration continue n'est pas un but, une destination, c'est un voyage continuel (ce thème est bien expliqué dans gembapantarei). L'erreur la plus commune lorsque les entreprise occidentales essayent d'appliquer « The Toyota Way » est de confondre mesure et évaluation.

Il existe un autre besoin d'humilité qui est directement lié à la notion de « lean » et de simplification : l'humilité de reconnaître que l'on n'est pas indispensable. Ceci s'exprime de nombreuses façons : reconnaître qu'on n'est pas indispensable dans une réunion, que son rôle d'intermédiaire n'est pas nécessaire, que l'on peut se retirer d'un circuit d'approbation, qu'il n'est pas nécessaire d'être informé, etc. Chacun de ces points est :

  1. indispensable pour obtenir un fonctionnement « lean »
  2. réellement difficile à mettre en œuvre (comprendre et pratiquer).

Reprenons ces exemples :

  • Les réunions fonctionnent mieux avec moins de participants. C'est un sujet que j'ai abordé de nombreuses fois, et les preuves abondent, du coté des psychologues, des sociologues ou tout simplement de l'expérience (s'il il fallait résumer en deux mots clés, je choisirai appropriation et feedback). En revanche, la même expérience montre qu'il est difficile de s'appliquer cette connaissance générale à soi-même, et que chacun pense que participer à une réunion « en auditeur tranquille, sans déranger, pour s'instruire » n'a aucun impact négatif.
  • Les (grandes) organisations modernes sont complexes, avec des chaines importantes de transmission d'information. De nombreux rôles de consolidation, d'intermédiaires apparaissent. Il est difficile de savoir reconnaître quand ces rôles sont nécessaires, et quand ils sont superflus : une fois le poste créé, il est dans la nature humaine de se sentir « nécessaire ». De plus, les grandes organisations aiment les processus bien clairs, et l'effacement conditionnel/occasionnel n'est pas une pratique naturelle. Ici aussi la pratique du lean enseigne au contraire que ce qui n'est pas obligatoire est souvent superflu et représente un poids mort qui étouffe.
  • Le besoin de s'inscrire dans un circuit d'approbation ou de diffusion d'information fait écho à une peur fondamentale de l'individu du 21e siècle, la peur de l'insignifiance. Je renvoie le lecteur à tout ce que les sociologues et les philosophes écrivent sur la société post-moderne (voir par exemple « Les embarras de l'individualisme post-moderne » de Monique Castillo). On peut y raccrocher l'addiction à l'information, mais c'est en fait un symptôme du problème précédent.

L'enjeu culturel pour dépasser ces difficultés est de savoir penser globalement, au-delà de son propre périmètre et de ses propres limites, ce qui est une autre forme d'humilité. C'est particulièrement important dans un processus de production de « matière grise ». Savoir, de façon continue, resituer sa contribution intellectuelle dans un cadre général, par rapport à un objectif partagé, est un objectif clé pour les entreprises du 21e siècle. Par exemple, l'efficacité de la R&D s'inscrit dans cette problématique.


Je poursuis par ailleurs ma réflexion sur le « Kanban » du KW. Autrement dit, quels sont les outils de « management visuel d'un flux tendu » qui se transposent dans une société de services de l' « économie digitale ». J'ai trouvé un premier lot de références intéressantes sur le Web (par exemple : sur le blog AgileManagement). Le principe du « management visuel » ne s'applique pas uniquement dans un fonctionnement « pull » en flux tendus. Même lorsqu'un fonctionnement réactif (par propagation d'événements) reste nécessaire ou souhaitable, la notion de kanban, au sens d' « outil visuel partagé permettant de fluidifier le fonctionnement » est pertinente. Voici trois exemples simples :

  • Partager sur un mur les informations de façon globale, précisément pour donner à chacun un référentiel partagé du contexte complet du processus auquel il participe. Cela recouvre la pratique de couvrir les couloirs avec les informations de chaque direction, la pratique des war-rooms, tout ce qui de fait utilise la stigmergie comme principe actif de communication. La stigmergie est une forme de communication sans contact direct (les champions de la stigmergie sont les fourmis qui communiquent par dépôts de phéromones le long de leurs trajets). La stigmergie est doublement pertinente. D'une part elle fait déplacer les individus au lieu de déplacer les informations, ce qui multiplie les possibilités d'échanges créateurs de valeur. D'autre part, elle est globalisante par nature et ignore les frontières organisationnelles (un sujet sur lequel je reviendrai).
  • Utiliser les indicateurs de présence associés aux outils d'instant messaging pour joindre « au bon moment ». L'instant messaging est un outil naturellement destiné au fonctionnement « lean » : il évite les efforts de communication inutiles, il participe à la remontée instantanées des signaux et peut donc servir à piloter un flux tendu, où tout au moins le « chaînage arrière », c'est-à-dire l'orientation client.
  • Disposer d'un indicateur de charge et éviter d'envoyer des flux d'information aux KW qui sont déjà surchargés. Ici je sors de ce qui existe et je rentre dans le « wishful thinking » …. C'est la suite du message précédent sur la gestion des piles d'emails. L'application des principes lean conduit directement à postuler qu'il faudrait connaître l' « état de charge » de l'interlocuteur à qui l'on envoie un message avant de le faire (pour éviter de contribuer à une saturation improductive). En effet tout envoi de mail est une consommation de temps du destinataire, ne serait-ce que pour lire le message. Il n'existe pas (encore ?) de telle fonctionnalité dans les outils de courrier électronique, mais il est facile d'utiliser un portail d'équipe, un wiki collaboratif, ou tout autre forme d'outil 2.0 pour partager une forme visuelle (déclarative ou mesurée) de la quantité de travail attribuée de façon courante à chaque KW. On remarquera bien sûr que la pratique du partage d'agenda (y compris de façon collective sur un mur) est une première réponse à cette attente. On retrouve d'ailleurs cette idée implémentée dans les « salles projet ». En revanche, la notion d'indicateur de charge liée au traitement des messages/requêtes n'est pas encore très développée (on retombe sur le sujet de la sociométrie de la collaboration en entreprise).

Je vais poursuivre mes recherches sur le Web, je suis bien sur que cette idée a été implémentée quelque part …



jeudi, mai 08, 2008

Petite Réflexion Prospective sur l’Entreprise de Demain

Après plusieurs posts un peu techniques, je profite d'une journée tranquille pour prendre un peu de recul et proposer quelques réflexions sur l'organisation de l'Entreprise 3.0 (une fois que la révolution 2.0 sera digérée). Il y a bien sur un clin d'œil dans l'utilisation de « 3.0 », mais la feuille de route qui suit va plus loin que l'adoption des « pratiques 2.0 ». Aujourd'hui, je me contente d'effleurer le sujet avec trois idées (qui sont en tension les unes avec les autres) :

  1. L'unité de temps, de lieu et d'action n'est plus le mode de travail par défaut.
  2. L'enjeu fondamental d'efficacité est la qualité de la collaboration, qui exige de gérer précieusement le mode de travail précédent (face-à-face)
  3. Nous sommes passés d'un monde de l'entreprise avec une communication autour du travail à un monde dans lequel l'essentiel du travail est la communication. 

L'entreprise de demain est train de perdre sa structure « spatio-temporelle ». Les collaborateurs travaillent n'importe où et n'importe quand. Nous ne sommes pas encore là, mais la tendance est en route (voir l'article de BW cité plus loin). Je parle abondamment de ce sujet dans mon livre. Cette tendance est renforcée par les aspirations et les habitudes des « digital natives ». C'est à cause de ce premier point que les entreprises doivent basculer en « mode 2.0 ». Bien entendu, je ne parle pas d'un atelier de boulangerie, mais d'une entreprise qui produit des services dans une économie digitale. Pour accompagner cette transformation, il faut « tisser du lien social », pour reprendre une expression de Michel Godet, selon trois axes :

  • Donner du sens, créer de la sémantique, relier les « communautés de pratique ».
    On retrouve ici l'utilisation des outils 2.0 pour le « knowledge management » : wiki, forums, communautés, etc. Cette dimension est du ressort de l'entreprise, ces réseaux sociaux font partie de son patrimoine, de son capital immatériel.
  • Resynchroniser nos horloges biologiques, rétablir le « beat », reconstruire une « connexion permanente ».
    Ce besoin de la connexion permanente, celui qui explique les micros coup-de-fils « inutiles » avec nos portables (t'es où, tu fais quoi, etc ?) est viscéralement lié à notre condition humaine (je ferai un compte-rendu de ma lecture du moment, «  Social Intelligence » de Daniel Goleman, un autre jour, c'est exactement ce sujet). L'utilisation de la messagerie instantanée, de Twitter, des indications de présence/humeur sur Facebook et autres portails communautaires relèvent de ce besoin. Les expériences dans certaines entreprises qui ouvrent des connexions visiophoniques entre deux lieux de façon continue, sans objectif particulier, s'inscrivent dans la même approche.
  • Mailler un temps discontinu pour reconstruire une destinée commune et ininterrompue.
    L'enjeu ici est de construire un tout avec des pièces éparses et asynchrones. La messagerie asynchrone (email) ne suffit pas, il faut des outils plus riches et plus collectifs. Il faut reproduire la stygmergie des fourmis, une capacité de communication collective permettant à chaque petite bribe de temps individuel de s'inscrire dans un temps global et collectif. Cela nous conduit aux « walls » de Facebook, aux outils de conception collaborative et de pilotage de projet « en mode 2.0 ». Cela va beaucoup plus loin que les outils électroniques, l'espace physique de l'entreprise peut devenir un outil collaboratif (et pas simplement en mettant des tableaux blancs dans les couloirs ou en affichant des informations sur les murs)

Malgré la pertinence spectaculaire des outils du Web 2.0 pour accompagner ces transformations, les psychologues et les sociologues nous ont prouvé qu'il n'y avait rien de comparable au contact face-à-face pour communiquer (en attendant peut-être la présence virtuelle de Cisco ou de HP). Or les entreprises font face à un enjeu d'efficacité en termes de collaboration. Les processus sont de plus en plus complexes, dynamiques et transverses (un autre sujet que je traite dans mon livre). Ce deuxième point modère le premier : l'entreprise 2.0 doit conserver un visage humain. En fait l'utilisation des technologies de l'information rend encore plus important ce qui ne peut pas se réduire à des transferts de flux d'information. Le « temps partagé » est un capital précieux qui doit être optimisé :

  • En favorisant ce qui est informel et spontané sur ce qui est organisé, pour conserver l'agilité maximale à l'entreprise
  • En se déchargeant sur des moyens électroniques (webinars, visio-conférence, conference calls, …) pour ce qui demande un transfert d'information mais pas nécessairement un échange. Ici, le concept de bandwidth des spécialistes du CMC (un sujet dont j'ai déjà parlé sur ce blog) devient fondamental. Il faut gérer cette « bande passante » et l'optimiser.
  • En optimisant les réseaux sociaux représentés par « le système réunion » (un autre classique de ce blog). Je ne reprends pas aujourd'hui les recommandations en termes de CMS (Corporate Meeting System), je ferai une synthèse après avoir terminé mon article sur l'étude des réseaux d'affiliation.

Le fait que le traitement et le transfert de l'information deviennent progressivement la majorité du travail de la majorité des entreprises moderne conduira nécessairement à s'affranchir du « chaos » actuel en termes d'utilisation des différents outils. Le chaos vient d'une part du fait que nous utilisons le même outil et le même canal pour gérer des flux très différents. Ceci nous conduit à des situations d'embouteillage, où des flux de basse priorité obstruent les canaux (un sujet déjà abordé). D'autre part, l'utilisation des différents outils est personnelle, et chacun utilise ses propres règles, ce qui conduit à des incompréhensions et de l'inefficacité. Ce sujet est d'autant plus important que les canaux électroniques se multiplient, et est donc aggravé par l'apparition des outils « Web 2.0 ». Mon intuition est que le volume et l'importance croissante des communications vont conduire à l'émergence d'un « ordre », au moins selon les 3 axes suivants :

  • La séparation du signal et du contenu. Elle permet d'utiliser les canaux réactifs (faible latence) pour propager le contrôle, et utiliser les outils collaboratifs pour gérer le contenu (avec des gains évidents en termes de partage, de sécurité, de sauvegarde, …). Ce point est déjà compris et noté par les spécialistes de l'entreprise 2.0 (voir les articles de Fred Cavazza).
  • Séparer les flux critiques des non-critiques, les flux liés aux processus métiers des flux informels. Il faut utiliser l'abondance des outils pour que chacun soit utilisé à bon escient, et de la même façon par tous (bien sûr). Cela passe par la rationalisation et l'édiction de règles collectives (cf. le chapitre 5).
  • Une gestion plus rigoureuse du temps. Le temps est clairement devenu la ressource critique dans les entreprises. Il ne sert à rien d'avoir le téléphone ou l'email d'une personne si vous n'avez pas son attention. La multiplication des flux est illusoire, et les outils modernes offrent des « tuyaux bouchés ». Les outils de pilotages des flux critiques liés aux processus métiers de l'entreprise (ex : workflows) vont progressivement s'interfacer avec des outils de gestion de planning. La pratique du « lean management » va conduire à prendre en compte le temps disponible dans le pilotage des communications « critiques ».

Deux références de BusinessWeek :

  1. Ancien – 11 décembre 2006 : « No Fixed Schedules. No mandatory meetings. Inside BestBuy's radical reshaping of the workplace - Smashing The Clock" by Michelle Conlin. L'exemple de BestBuy est très instructif, avec des resultants spectaculaire en réduction du turn-over (-50 à -90%) et augmentation de la productivité (+35%). L'emphase est mise sur la flexibilité, la formation et la mesure …
  2. Récent – 28 Avril 2008: "White-Collar workers shoulder together – like it or not" by Matt Vella. Ce court article est plein de statistiques fascinantes. Par exemple, à la question "Do you like working together to learn from each other? », 51% des femmes et 40% des hommes disent oui (60% pour les plus jeunes). En revanche, à la question « Do you like to working together to complete tasks? » 13% des 18-14ans seulement répondent oui, on passé à 27% pour les 25-65 et 36% pour les seniors (36% pour les hommes en général, 25% pour les femmes). 82% des employés travaillent déjà de façon collaborative aujourd'hui (46% pour apprendre des autres, 30% pour accomplir une tâche). Le mode de travail préféré est le travail à 3 !

J'ai ouvert un nouveau blog, Enterprise Collaboration Sociometry, qui me servira de marque-page (en anglais) pour les différents éléments que je collecte patiemment pour nourrir ma réflexion, en parallèle du travail de modélisation qui est décrit dans ce blog.

dimanche, avril 06, 2008

"The Social Atom" - Le Knowledge worker, composant unitaire du processus



Je vais commencer aujourd’hui par un résumé de ce que j’ai retenue de la lecture du livre de Mark Buchanan « The Social Atom » . Ce livre est vraiment passionnant, très bien écrit, et je le recommande aux lecteurs de ce blog, après les livres de Malcom Gladwell. Le titre du livre signifie que Mark Buchanan cherche une théorie du comportement collectif issue (en « bottom-up ») de ce que nous savons des individus.
Les thèmes clés sont donc l’émergence, les réseaux sociaux, les jeux et paradoxes collectifs … L’introduction peut avantageusement rapprochée de « Out of Control » de Kevin Kelly dont j’ai déjà parlé. Nous sommes également sur les traces de Moreno et de la sociométrie. L’atome, c’est le comportement unitaire … dans le monde de l’entreprise, ce serait le « knowledge worker ». Le parallèle avec les thèmes d’intérêt de ce blog est évident, puisque le thème sous-jascent n’est autre que la recherche d’une science du comportement collectif, qui s’appuie sur une simplification du comportement individuel mais utilise les outils de la science moderne (cf. le post précédent sur la simulation) pour étudier les interactions dans toute leur richesse et leur complexité. La thèse de Mark Buchanan est que la sociologie doit traverser la même révolution intellectuelle que la physique pour progressivement faire émerger ce concept du « social atom ». Plutôt que de continuer cette médiocre paraphrase, je vous encourage à lire le livre ! (à commencer par le premier chapitre « Think patterns, not people ».
Je vais me contenter de mettre certains points en valeur, comme chaque fois, avec ma subjectivité et mes propres limites. La liste qui suit n’est pas forcément ce que chacun retiendrait, elle est « biaisée » par les centres d’intérêt de ce blog :
  1. Le premier point intéressant est le jeu de Richard Thaler, proposé en 87 aux lecteurs du Financial Times, constituant à deviner un nombre « qui doit être le plus près possible des 2/3 de la moyenne des entrées des autres joueurs ». C’est une merveilleuse illustration de la rationalité limitée. Si les joueurs sont stupides, ils répondent 50 (moyenne entre 0 et 100). S’ils pensent « à un coup », ils jouent 33. S’ils pensent beaucoup, ils répondent 0 (le seul point fixe, solution de l’équation X = 2/3 X). Le verdict : l’entrée moyenne était de 18.9 et le gagnant avait choisi 13. C’est une information extrêmement intéressante lorsqu’on simule des acteurs ou des marchés (permet de calibrer une répartition entre les « idiots » et les « génies »).
  2. On retrouve des anecdotes intéressantes sur les jugements instinctifs et sur les erreurs que l’on commet facilement en fonction de la façon dont la question est posée. Cela rappelle bien sur le livre « Blink » de Malcom Gladwell.
  3. Le livre contient de très intéressantes références sur la volatilité dans les processus stochastiques, et en particulier sur les marchés financiers. Le crash de LTCM (Long Term Capital Management) mérite d’être retenu. Les données numériques pour l’expérience archi-célèbre du bar de « El Farol » montrent également une volatilité très importante. Cette volatilité est une signature, explique Buchanan, de processus complexes avec des acteurs « intelligents » qui apprennent. On trouve en quelque sorte une « long tail » des fluctuations, à rapprocher des « power laws » qui caractérisent les réseaux sociaux. Une des contributions les plus importantes du livre est de montrer que cette distribution apparaît naturellement lorsque des mécanismes d’apprentissage sont introduits (cf. la simulation de marché de Brian Arthur) et seulement dans ce cas. Je cite : « So it seems that what rationality cannot explain [la volatilité], a mystery of half century, finds a natural explanation in adaptative behavior and self-organization ». On ne peut pas rêver de meilleure introduction à l’approche GTES !
  4. Cette analyse peut être affinée grâce aux travaux de Zhang et Challet sur le « minority game » (qui ressemble au jeu de Thaler). Ils ont montré que le comportement change complètement selon le nombre de joueurs (la densité par rapport à l’espace des stratégies). Avec peu de joueurs, l’apprentissage joue un rôle important (lié à l’exploration) tandis qu’avec beaucoup de joueurs, l’efficacité collective est trop grande (tout le monde se précipite sur la meilleure position du moment) pour que des protocoles stables puisse s’installer. On observe alors un comportement chaotique et une grande volatilité.
  5. Buchanan cite également les expériences de Bouchaud et Michard pour expliquer les « stratégies d’adoption » (cf. « The Tipping Point » de Malcom Gladwell) par des modèles issus du magnétisme (voir par exemple l'article). Ce modèle a donné d’excellents résultats pour prédire la vitesse d’adoption du téléphone mobile, les applaudissements dans une salle de concert. Une des leçons que propose Buchanan est que le penchant naturel pour l’imitation (cf. Aristote) est suffisant pour expliquer de nombreux phénomènes « apparemment complexes ». Le livre rapporte également une expérience/simulation due à Robert Axelrod (dont j’ai parlé de nombreuses fois) & Ross Hammond, qui simule la propagation d’une stratégie (de discrimination) à partir d’un modèle stochastique. Les résultats sont doublement intéressants : d’un point de vue méthodologique - une simulation simple qui permet de reproduire un comportement complexe et d’un point de vue pratique/personnel, puisque la conclusion est que le comportement discriminant est « dominant » (« in a world of bigots, only bigots survive »). Un résultat qui fait froid dans le dos et mériterai un post à lui tout seul.
  6. Une expérience quelque peu similaire a été menée par Bouchaud et Mezard pour comprendre la distribution des richesses (dans chaque pays, la courbe a la même forme, et suit une « power law », un fait découvert il y a longtemps par Vilfredo Pareto). Comme dans l’expérience de Axelrod et Hammond, un modèle stochastique simple permet de redécouvrir ces distributions (avec une précision remarquable).
  7. Le « jeu de l’Ultimatum » est également une source d’inspiration pour la simulation. Ce jeu (dans lequel on vous remet 100$, et vous devez décider combien vous voulez partager avec un étranger qui vous est désigné, sachant que si il refuse votre proposition, vous devez rendre les 100$) illustre la complexité de la psychologie humaine (on y retrouve la notion d’utilité, mais également une notion intrinsèque de « justice ») par rapport à une vision « purement rationnelle ». La surprise est qu’il existe des fondamentaux (ce jeu a été joué des milliers de fois, dans des cultures et des configurations différentes).
  8. Buchanan donne également des exemples numériques tirés de jeux qui illustrent « the tragedy of the commons », c’est-à-dire des situations ou un intérêt collectif s’oppose aux intérêts particuliers. On retrouve l’importance du nombre de participants (cf. mes commentaires sur l’excellent livre de Christian Morin « Les Décisions Absurdes »).
  9. Pour finir, les expériences de Robert Axtell sur la distribution du succès et de la taille des entreprises sont très encourageantes, de façon générale (une des conclusions de Buchanan est « at the core of the modern competitive firm we find that social cohesion created by cooperation is the main engine for success») et de façon particulière sur la pertinence de la simulation pour évaluer des phénomènes macro-économiques. Notons que le point de départ de Axtell est une constatation statistique que le nombre d’entreprise de taille S suit une « power law » de type 1/S^2, à toutes les époques et dans tous les pays ! Le premier objectif de sa simulation était de voir s’il pouvait retrouver ce résultat par simulation, ce qu’il a fait (une fois de plus, avec des résultats impressionnants qui reproduisent ce que disent les statistiques, quelque soit la configuration de départ de la simulation).


Ce livre est rafraichissant car il est rempli de faits. Il est très à la mode de construire des théories (en termes de management, d’efficacité collective, de méthodes de travail, de conduite de processus). Les lecteurs anciens savent que ce blog cherche une base, un cadre ou un outil pour évaluer ces théories. C’est avec des informations du type de celles contenues dans le livre de Buchanan qu’on peut espérer faire un travail scientifique, c’est-à-dire fondé sur la réfutabilité (cf. Popper).