dimanche, décembre 13, 2009

LEMM : quelques clarifications

J'ai reçu plusieurs commentaires très intéressants, par email ou sur le blog (merci Patrice). Je vais répondre sous forme de post pour pouvoir suivre une démarche structurée (et aussi parce que Blogger m'a perdu ma première réponse sous forme de commentaires, ce qui m'a hautement frustré).

(1) Email et Gestion de boite

Un des commentaires que j'ai reçu remarque que chacun utilise sa boite-aux-lettres de façon différente (avec des dossiers, etc.). Pour une personne qui conserve tous ses emails reçus, la notion de taille de boite « N » n'a pas beaucoup de sens. En effet, il faut considérer dans le post précédent N comme le nombre de messages actifs qui attendent un traitement. La plupart des gurus de l'efficacité recommandent d'utiliser une autre structure pour sauvegarder l'ensemble des emails reçus, mais ceci est un autre sujet. Celui qui m'intéresse est bien ce que Patrice Legoux appelle la « minimisation du stuff à faire ».

C'est d'autant plus important à préciser que la Loi de Little (N = l x T) , ne fonctionne avec T = temps de traitement que si N représente précisément la « nombre d'emails pour lesquels il reste quelque chose à faire ».

Comme on me l'a fait remarquer, ce qui rend la méthode de gestion de la boite importante n'est pas théorique mais pratique. En théorie, on pourrait balayer sa boite, classer et prioriser et gérer des files d'attentes multiples. Dans la pratique, il y a l'erreur humaine, qui augmente en fonction de la taille de la boite.

(2) JIT email, indépendance et couplage

Le lecteur aura remarqué que la pratique du JIT induit un couplage entre émetteur et destinataire. C'est une contrainte (assurément) qui réduit l'indépendance de chacun au sein d'un processus globale, ce qui peut ressembler à une régression. On touche à une des aspects contre-intuitifs du Lean. C'est pour cela que je n'imagine pas une seconde la pratique du JIT comme une vertu en soi, mais plutôt comme une déclinaison au courrier électronique de la pratique du Lean chez les knowledge workers.

Un exemple simple et illustratif est celui de la veille technologique. La pratique usuelle est que les « veilleurs » poussent leur information dès qu'elle est prête. Les destinataires s'en servent quand bon leur semble. La pratique Lean est au choix d'utiliser un serveur de documents pour que destinataire soit en mode « pull » et aille chercher l'information au bon moment, ou alors d'envoyer le rapport de veille par email « au bon moment ». Ce couplage impose que le veilleur connaisse le calendrier des besoins de ses lecteurs. C'est assurément contraignant, mais c'est aussi une source d'efficacité : plus les lecteurs s'expriment sur leur besoins, plus la veille est pertinente.

(3) email et autres canaux de communications

Je suis bien sur 100% d'accord avec Patrice Legoux lorsqu'il insiste sur le fait que le courrier électronique n'est qu'un outil parmi d'autres et qu'il faut considérer l'ensemble pour avoir une vue globale (en terme d'efficacité).

C'est même ce sur quoi je travaille depuis 4 ans sous le nom de démarche SIFOA (cf. les posts plus anciens de ce blog) : caractériser les différents canaux pour pouvoir comparer leur efficacité. C'est ce qui m'a permit de faire quelques comparaisons entre email, réunions, IM et téléphone.

Mais le fait de voir un système global n'empêche pas d'étudier les sous-systèmes ! C'est ce que je fais depuis 3 ans sur les réunions. Les réunions forment un canal de communication très complexe et on ne peut pas se restreindre à une seule vue globale de type SIFOA (à un moment, il faut se restreindre sur son champs d'investigation pour mieux analyser – qui trop embrasse mal étreint J). Je suis même allé plus loin en étudiant en détail les réseaux d'affiliation formés par les systèmes réunions. L'étude du réseau « email » est très intéressante en soi, indépendamment du couplage avec les autres réseaux de communication. Cela d'autant plus que c'est un réseau simple et explicite, qui a été bien étudié dans la littérature scientifique (cf. mon second livre pour quelques références). On sait de plus en plus de choses sur ce canal de communication, ce qui permet de confronter l'analyse à la réalité, ou de faire des simulations avec les « vrais » paramètres.

On peut faire le parallèle avec l'architecture organisationnelle (le titre de ce blog). Je ne prétends pas une seconde que l'analyse structurelle que je fais (cf. la décomposition de Bolman entre structure, politique, ressource humaine et symbolique) est une approche compréhensive du management ! La structure n'est qu'une petite partie du sujet … mais c'est une partie que je maitrise mieux que d'autres, et pour laquelle les méthodes scientifiques que je développe (ex : GTES) permettent d'obtenir des résultats. Ces résultats ne sont que des « insights » parmi d'autres, mais non moins intéressants.

(4) Mesurer l'impact du spell-out email ?

On m'a demandé s'il existait des études, au-delà de l'intuition systémique. Je n'en connais aucune, mais compte-tenu des informations disponibles sur les vitesses de lectures et d'écriture, il doit être possible de faire des simulations. Une application pratique de cette règle, que l'on trouve dans de nombreuses chartes est le fait de présenter chaque pièce jointe. Il est recommandé, lorsqu'on inclut un document Word, de mettre un résumé de quelques lignes qui explique le contenu de la pièce jointe. Si cette règle a émergé dans de nombreuses entreprises, on peut conjecturer qu'elle est efficace. On peut aussi essayer de le démontrer, si l'on dispose d'une indication statistique sur le nombre de fois ou l'on ouvre une pièce jointe sans intérêt (du point de vue du destinataire). On pourra remarquer que cette règle est due à la lenteur de l'ouverture d'un document joint, et que la longueur du résumé doit être inversement proportionnelle à l'efficacité du PC du destinataire J

(5) Lien entre le « early packet discard » et l'abandon d'email.

Un ami m'a fait remarquer la similarité entre le protocole de routage IP dans lequel le routeur commence à perdre des packets de façon progressive avant d'arriver à la saturation de ses buffers. Cela permet aux protocoles astucieux, de type TCP, de détecter ces pertes et de s'adapter en terme de routage ou de débit. Le fait de ne pas répondre aux emails fonctionne en effet de façon semblable : ne pas répondre rapidement, ou du tout, est une façon efficace de signaler « au système » que l'on est saturé. C'est d'ailleurs la seule solution « auto-adaptative » lorsque le trafic email devient trop important. Cependant, le fait que ce « protocole » fonctionne ne le rend pas désirable pour autant, et je persiste à penser que la limitation du trafic à la source est plus efficace J

(6) LEMM et outils

Patrice me demande s'il faut aborder le sujet de l'efficacité par les outils. Cela dépend ce que l'on appelle un outil. Je ne fais aucune hypothèse sur l'outil de courrier électronique. Je m'intéresse simplement à un canal asynchrone, multi-destinataires explicites, avec boite de stockage. Tout ce que j'écris s'appliquerait de la même façon à du courrier physique, à des messages Facebook, etc.
Précisément l'approche SIFOA que je développe consiste à faire une abstraction de chaque canal de communication (sync/async, nombre de destinataire, vitesses de lecture/écriture, stockage, latence …) pour pouvoir ensuite comprendre et comparer l'apport de chaque canal.

L'intérêt d'une telle approche, que je qualifie de systémique (parce qu'elle cherche à étudier la communication d'entreprise en tant que système), est de donner des propriétés qui sont vraies de façon générale. Par exemple, ce que je cite comme « insight du lean », le fait que la variabilité du temps de réponse augmente avec le taux de charge, est vrai indépendamment de l'outil ou de la règle que les agents utilisent pour gérer leur boite aux lettres.

dimanche, décembre 06, 2009

Lean eMail et Loi de Little

Je reviens aujourd'hui sur un de mes sujets favoris : le « lean eMail Management» (LEMM), c'est-à-dire l'approche lean appliquée au courrier électronique. Je vais aujourd'hui enrichir ma réflexion par un peu de systémique appliquée, d'où la référence à la Loi de Little, la célèbre formule des files d'attentes.

Dans mon post de Novembre 2007 (deux ans déjà !) j'ai proposé de déduire de l'approche lean quelques principes de gestion des emails, et plus précisément des principes pour réduire les flux. Le point de départ de cette nouvelle réflexion est la consultation de l'excellente « Charte pour un bon usage des messageries électroniques dans un cadre professionnel », un document en projet produit par l'ORSE (Observatoire sur la Responsabilité Sociétale des Entreprises) qui sera bientôt rendu public

Je ne vais pas parler de ce document avant qu'il soit rendu public mais son introduction réaffirme des idées qui sont dans l'air du temps (et que l'on retrouve dans le Chapitre 5 de mon livre) : le courrier électronique est sorti de sa « zone de confort », nous écrivons et recevons trop de mails, ce qui prend trop de temps (plus de deux heures par jour pour la moitié des personnes interrogées dans une étude) et provoque une surcharge cognitive (ce qu'on appelle le trafic mental dans les techniques de gestion des priorités). Une des références sur le sujet, citée par Jean-Pierre Corniou dans mon commentaire sur le Lean Worker, est l'article « surcharge organisationnelle, urgence et TIC » de H. Isaac, E. Campoy, M. Kalika. D'une part, les études montrent que nous passons beaucoup de temps à surveiller notre boite email, et d'autre part, chaque interruption (aller lire subrepticement l'email qui vient d'arriver) nous coûte : 64 secondes pour reprendre le fil de sa pensée, et 10 points de QI selon l'étude de l'université de Londres que j'ai citée plusieurs fois. De plus, une boite email trop remplie augmente le temps que nous mettons à répondre (je vais y revenir, c'est l'application directe de la loi de Little) et augmente ce que les consultants en efficacité appelle le « rework » : refaire plusieurs fois la même chose (par exemple, relire plusieurs fois l'email que nous décidons de remettre à plus tard). Très logiquement, ce post va reprendre la question « comment éviter les boîtes trop remplies », sous l'angle de la systémique.

Cette approche me conduit à développer 4 principes, dans la suite du post précédent, mais en affinant l'aspect analytique. Aujourd'hui je vais me contenter de poser les principes de l'analyse, mais il est facile de voir qu'il y a matière à simulation et à faire passer dans une dimension quantitative. Dans un franglais ignoble, voici la liste :

  • JIT email : l'email juste-à-temps, qui n'utilise pas la boite comme espace de stockage temporaire
  • Spelled-out email : l'email construit et rédigé, qui simplifie la tâche du lecteur
  • Email Protocol : réguler le flux des emails qui donnent du travail au lecteur
  • Reduire le email span : Il existe d'autres outils que l'email pour « avoir plein d'amis », il vaut mieux rester sur un réseau raisonné.

Rappelons la Loi de Little :

N = l x T, ou N est le nombre d'emails dans la boîte, l est le taux d'arrivée, T le temps total de séjour (traitement inclus).

Nous voyons tout de suite de nombreuses pistes pour réduire N J

1. Just-in-time email

La première façon de réduire N, c'est de réduire T, et la première façon de réduire T c'est de réduire la partie "attente avant traitement". On retrouve très logiquement un des principes du lean manufacturing qui a donné le « juste à temps ». Le JIT email, c'est celui qui arrive dans la boîte aux lettre au « bon moment », ni trop tôt (parce qu'il encombre) ni trop tard (parce qu'on n'a plus le temps de le traiter).

Il y a plusieurs degrés de maîtrise dans cette approche :

  1. Ne pas pousser un mail trop tôt « pour s'en débarrasser » (réduire son trafic mental en augmentant celui des autres)
  2. Lorsqu'on demande quelques chose dans un email, donner une indication claire de la fenêtre de temps de la réponse attendue (ce qui favorise l'application de (1))
  3. Lorsqu'on demande quelque chose, prendre la disponibilité du destinataire en compte ! Cela peut se faire dans un monde 2.0 avec des indicateurs de présences, des statuts, l'utilisation de l'IM … mais cela se fait aussi avec un bon vieux coup de fil avant de pousser une pièce jointe de 10 pages à relire.

Le JIT email ne peut pas exister comme pratique autonome, c'est la déclinaison au courrier électronique de la pratique lean dans le monde des knowledge workers, consistant à ne pas pousser la charge de travail, mais à la « tirer ». Je fais une différence implicite entre le message de deux lignes (type statut de Facebook) qui peut être poussé, et le message qui requiert une réponse et un travail (temps de traitement important).

Une petite remarque pratique, basée sur une technique que j'applique depuis quelques années. Pour développer le JIT du coté du lecteur et surtout pour éviter le « rework », je m'astreins à colorer chaque email (merci Outlook) à la première relecture avec un code couleur selon la priorité :

  • Jaune, orange, rouge : nécessite une réponse – c'est de la procrastination, mais organisée J
  • Vert : information – je laisse l'email dans la boite, car je n'ai pas envie de le ranger ailleurs, mais il ne nécessite aucun traitement
  • Violet : tâche en cours – rien à faire pour l'instant, mais cela reviendra (par exemple lorsqu'un collaborateur m'aura répondu)

Tout email qui n'est pas coloré est détruit, et je ne fais pas deux fois l'acte de coloration. J'estime avoir gagné de 10 à 20% dans mon temps de traitement des emails.


2. Spelled-out email

La deuxième piste pour réduire T est de réduire le temps de traitement et de s'attaquer à l'asymétrie qui existe entre celui qui écrit et celui qui reçoit. L'urgence pousse à envoyer des demandes mal formulées :

  • Abus de pièces jointes
  • Message « pour information »
  • Questions mal explicitées
  • Etc.

Ce n'est pas que la mauvaise volonté qui conduit à pousser « la charge de traitement » sur le destinataire : on écrit moins vite qu'on ne lit. J'ai déjà abordé ce sujet dans mon livre et dans un post précédent.

La pratique du « spelled-out » email, qui est encouragée par la plupart des chartes (dont celle rédigée à Bouygues Telecom lorsque j'étais DSI), consiste à déplacer une partie du travail sur le rédacteur de l'email, en lui demandant de mieux préparer son courrier pour faciliter le travail du lecteur. Le bénéfice systémique est double :

  • Puisqu'il faut plus de temps, cela réduit le nombre d'emails produits J
  • On gagne en temps de traitement, et par application de Little, on réduit la taille des boites et on augmente la rapidité.

Cet argument s'applique également pour comparer l'email avec d'autres canaux de communication. Laisser un message vocal est encore plus asymétrique : cela demande peu d'effort pour celui qui laisse le message (on parle plus vite qu'on n'écrit), mais cela prend plus de temps pour celui qui reçoit (on lit plus vite qu'on écoute). C'est ce qui fait l'intérêt d'un service de « speech-to-text » comme celui de Spinvox. Au contraire, la communication au travers d'un blog d'entreprise exige un effort plus important de celui qui écrit (et je suis bien placé pour le savoir). L'intérêt principal de la communication par blog vient avant tout du concept de « Broadcasting ciblé », mais il y a également un bénéfice systémique de « préparation du contenu ».


3.Email Protocol

Revenons au cas d'un email qui contient une demande qui exige un travail (temps de traitement significatif). L'application de l'approche lean exige de vérifier la « disponibilité » du destinataire, c'est un cas particulier et plus fort du JIT. Quelque soit la méthode ou l'outil, il faut s'assurer en amont que celui qui reçoit la demande dispose du temps pour la traiter. C'est ce que j'appelle le « email protocol » : il faut un protocole qui définisse de quelle façon je peux envoyer au destinataire un email qui va lui prendre 1heure ou 1 jour de travail. La théorie des files d'attentes va nous aider à justifier cette affirmation forte. Que se passe-t-il lorsque le nombre d'emails significatifs (avec temps de traitement) augmente ?

  1. Dans un premier temps, le temps de lecture augmente (cf. les 2 heures mentionnées en introduction). Cette augmentation a un fort impact sur le temps utile de travail personnel, qui diminue d'autant. Compte tenu du temps passé en réunions, déplacements, travail administratif, c'est une perte sensible d'efficacité, qui paradoxalement augmente le temps de traitement des emails les plus complexes qui exigent ce travail personnel. On retrouve la loi simple des file d'attentes : le temps de service augmente lorsque le taux d'occupation croit (facteur 1/(1-A))
  2. Dans un deuxième temps, la boite devient un outil de triage des priorités. Les messages attendent en fonction de leur priorités, suivant une loi qui est souvent exponentielle dans les modèles de « decay » (e^-kt). La probabilité d'être traité décroit en fonction du temps, soit jusque l'oubli, le dépassement de la deadline, ou l'abandon. C'est la seule réponse systémique lors de l'inflation non contrôlée du nombre d'emails, puisque, pour la plupart des gens, il faut aussi travailler J Au défaut systémique de l'allongement de la latence s'ajoute alors les taux de pertes, car tôt ou tard des erreurs de priorisation se produisent (ce que nous savons tous lorsque notre boîte devient trop volumineuse).

Le problème ne vient pas seulement de la longueur de la pile de messages, mais aussi de sa dispersion. Si le taux de charge augmente trop (pas assez de temps « libre » pour jouer le rôle de buffer pour absorber l'irrégularité des demandes), la taille de la pile fluctue et le temps de service en conséquence (voir les courbes dans cet article). De la même façon cette irrégularité du temps de traitement augmente la taille moyenne de la pile, selon la Formule de Pollaczek-Khinchine (voir le rôle de Cs dans la formule : plus cette variation de service augmente, plus la file d'attente s'allonge).

On retrouve une intuition géniale du lean : un système couplés de file d'attentes n'offre aucune garantie de temps de service si les files sont trop chargées. Dans un monde ou les boites emails sont pleines, la même demande qui représente 10 minutes de travail peut recevoir une réponse en une heure comme en une semaine, même si elle est prioritaire.

Une fois de plus, nous nous retrouvons dans une situation de « tragédie des communs ». D'un point de vue individuel, chaque envoi d'email (dans le cas d'un « email requête ») est justifié par la recherche d'un surcroit d'information (même avec une faible probabilité, cela reste un gain). En revanche, de façon globale et systémique, ces envois supplémentaires bloquent le système global : (1) le temps d'attente augmente, puis, (2) la qualité et la probabilité d'obtention de la réponse diminue. La réponse au paradoxe de la tragédie des communs est, classiquement, la régulation. C'est pour cela que je supporte la charte pour un bon usage préparée par l'ORSE.


4.Email Span

Pour finir, nous pouvons introduire le diamètre du réseau social associé, en définissant le nombre moyen de destinataires que chaque personne touche en un mois. Cette approche est semblable au diamètre réunionel introduit dans ce blog et développé dans mon dernier livre (et en particulier en annexe). Il se trouve que la même loi s'applique à nouveau ! La vitesse de propagation de l'information est fonction de deux choses : le nombre d'étapes pour qu'une information passe de la source au destinataire final, et le temps qu'il faut pour chaque étape, qui est précisément le T que nous avons introduit plus haut. En première approximation :

  • Le nombre d'étape est proportionnel à log(DI) / log(De) (même raisonnement que pour les réunions, DI étant le diamètre informationnel)
  • T est proportionnel à la taille de la pile ou du nombre de messages, soit globalement De.

On retrouve une formule en (De/Log(De)), qui nous indique que plus on parle à un réseau étendu, moins l'information se propage vite, car la bande passante de lecture de chacun étant constante, la partie affectée à chaque emetteur décroit comme (1/De). C'est la même remarque qui permet de comprendre la limite des «organisations plates » (lorsqu'on a 30 N-1, la fréquence à laquelle on peut les rencontrer décroit fortement !).

Nous aboutissons donc à une tension constructive :

  • Pour décloisonner l'organisation il faut ouvrir les réseaux et augmenter le diamètre de chaque employé
  • Pour augmenter l'efficacité, il faut conserver des petits groupes fortement connectés avec une haute fréquence

La solution de ce dilemme est précisément l'entreprise 2.0 ! Plus précisément, il faut introduire l'intermédiation propre aux canaux 2.0 tels que les blogs, les micro-blogs ou les walls. Le principe d'intermédiation, associé au broadcast sélectif, consiste à remplacer le pattern :

X –(z)-> Y (X transmet l'info z à Y)

Par :

X -> Z <- Y (X publie l'info z, et Y vient la lire si cela l'intéresse)

L'avantage évident est de pouvoir décloisonner (toucher un public large) sans consommer une part indue de la bande passante collective, ce qui arriverait si j'envoyais lundi cet excellent texte à cent collaborateurs de mon entreprise, sous le prétexte que le courrier électronique est un sujet qui les intéresse. Dans une entreprise 2.0, on peut restreindre l'usage de l'email à un réseau plus restreint sans perdre en efficacité (cf. l'usage de l'email sous Facebook avec un réseau fermé d'amis, qui devient l'outil asynchrone favori des ados au détriment de l'email classique).

Conclusion : A Suivre …

Ce post marque une étape dans ma réflexion sur le LEMM mais je suis loin d'avoir fait le tour de la question ! Cette vision systémique appelle une simulation, dans le cadre de mon projet de simulation des flux d'information et d'architecture organisationnelle (SIFOA). Ce type de simulation devient de plus en plus pertinente car la sociométrie du courrier électronique commence à exister (cf. mon plaidoyer pour la sociométrie de la collaboration d'entreprise). C'est un des intérêt du rapport de l'ORSE, il cite des vraies études avec des vrais chiffres.

Pourquoi escalader la complexité de la démarche en passant à la simulation ?: parce qu'il faut des réponses quantitatives, il n'y a pas de vérités universelles ! Le courrier électronique est un outil remarquable, c'est son abus ou sa mauvaise utilisation qui pose problème.



dimanche, novembre 29, 2009

Analyse systémique du pilotage de la performance

J'ai lu plusieurs ouvrages sur le pilotage de la performance récemment, dont le livre de Didier Vanoverberghe « Le Business Assurance pour la performance de l'entreprise » que j'avais mentionné en Aout et sur lequel je reviendrai. Cette réflexion s'insère naturellement dans le « Business Process Model » dont j'ai déjà parlé. Pouvoir définir simplement et axiomatiquement la performance serait d'une très grande aide par rapport aux objectifs de ma recherche sur l'architecture organisationnelle et le pilotage des flux de communication. Malheureusement, dès que l'on cherche à appliquer une modélisation formelle sur une situation réelle, on tombe sur de nombreuses difficultés que je pourrais qualifier de systémiques. Je commence à conjecturer que le système de pilotage hérite de la complexité systémique de l'entreprise elle-même. Autrement dit, le titre du post de ce jour ouvre un chapitre de ma réflexion sur le pilotage des processus, il ne répond surement pas à la question posée J

Tout cela a pour moi un parfum de « déjà vu ». Lorsque je me suis lancé, avec d'autres, dans l'urbanisation du système d'information de Bouygues Telecom, j'ai découvert des niveaux de complexité non-soupçonnés autour des problèmes d'architecture de données. Plus généralement, je suis tombé sur un « os » : la belle vision de l'urbanisation des SI autour des processus métiers laisse sous silence le problème de couplage entre processus. Les beaux schémas (ceux que je dessinai il y dix ans ou ceux que je lisais alors) étaient trop simples, et la réalité de l'exécution des processus dans le SI comporte plein de subtilités (une autre histoire, racontée dans mon premier livre).

Quand il s'agit de piloter la performance d'une entreprise représentée par un ensemble de processus, la même complexité apparait ! On ne peut pas réduire le pilotage de la somme des processus à la somme des pilotages, il existe de nombreux couplages. Pour s'en rendre compte, je vais prendre un exemple très simplifié autour d'une représentation « à la Porter » :

  • R&D
  • Marketing
  • Fabrication
  • Vente

Je ferai un beau dessin le jour ou j'écrirai mon 3e livre, ici je me contente de postuler l'existence de nombreux processus correspondant à des lignes de marché/produits différentes. Ces processus horizontaux s'appuient sur les 4 organisations verticales précitées. Cela forme la matrice classique présente dans tous les livres qui parlent de processus métiers (les miens compris J)

La théorie veut que les 4 divisions participent à chacun de ces processus en fournissant des ressources, le pilotage du processus étant autonome pour fixer les objectifs du processus en établissant des « contrats de valeurs » pour chacune des équipes fonctionnelles (« cases de la matrice »). La R&D innove, le marketing définit les produits et services, qui sont ensuite réalisés de la manière la plus efficiente possible puis vendus en fonction du « brief » fourni par Marketing. Pourtant, dès qu'on se place dans le contexte d'une entreprise du 21e siècle face à un marché « 2.0 » de clients informés et exigeants, de nombreuses difficultés apparaissent, que je peux résumer avec les 7 paradoxes suivants :

  1. Les processus produisent des produits et services qui s'adressent aux mêmes clients (globalement, même si la segmentation simplifie ces dépendances). L'optimisation du revenu conduit nécessairement au classique « Marketing Mix » (Yield Management).
  2. Les objectifs évoluent car le marché évolue ! Les prévisions sont forcément fausses, le pilotage ne peut donc pas s'appuyer « simplement » sur les objectifs.
  3. L'adaptation aux fluctuations du marché est un arbitrage « temps réel / sur le terrain » (cf. le « recognition & response » de Langdon Morris). Les objectifs confiés à la force de vente doivent inclure une « marge de manœuvre » d'adaptation à ces fluctuations.
  4. Les coûts unitaires du processus ne sont pas fixés, ils sont soumis à cette adaptation.
  5. Les coûts comportent des parties fixes, variables et semi-variables qui exigent un peu d'anticipation pour être optimisés. On a donc besoin de prévisions pour réduire les coûts (le modèle purement variable – malgré toutes ses qualités – n'est pas une panacée universelle)
  6. L'espace d'adaptation aux fluctuations du marché est donc contraint par des hypothèses de coûts de fabrication et de respect du « mix » (l'adaptation parfaite ne fournit pas l'optimisation du revenu produit pour l'entreprise).
  7. On ne vend plus des produits et des services mais des expériences, au sein desquelles les produits et services sont placés dans des cycles de vie gérés par les clients. Cela introduit une complexité temporelle : la valeur générée par la transaction (achat/consommation) n'est pas la seule dimension, il faut considérer le « développement durable de la valeur du client ».

Ces « paradoxes » montrent la complexité de la responsabilité du Marketing (ce que l'on sait mais qu'on a tendance à oublier dans une lecture réductrice de l'organisation par processus) et la complexité du partage de responsabilité dans le pilotage de la performance. Et comme toujours (cf. le pilotage des SI), si c'est complexe, l'arbitrage est une responsabilité de direction générale, pas l'application de règles d'organisation J

En fait, nous nous heurtons à trois difficultés systémiques :

  • Les processus sont couplés par le partage de ressources, par exemple l'ajustement des efforts des forces de ventes. Cette difficulté est la mieux connues des grandes organisations, qui vivent l'arbitrage des ressources des divisions verticales comme des freins à l'optimisation horizontale.
  • Les processus sont couplés par le fait qu'ils partagent un marché, soit de façon synchrone (compétition entre services produits par des processus distincts) soit de façon asynchrone (influence d'un processus sur un autre au travers du concept de cycle de vie – ex : plus je suis satisfait par un produit, plus je vais attendre pour le renouveler)
  • Les processus s'inscrivent dans un déroulement temporel, face à un marché incertain. La difficulté de la prévision (connaitre un marché) se combine avec celle de l'anticipation.

Ces difficultés se traduisent concrètement sur la multiplication des contraintes qui pèsent sur la « gouvernance du pilotage de la performance ». La responsabilité doit être partagée / segmentée / fondée sur un cadre / préserver un espace de liberté d'ajustement « sur le terrain ». Toutes ces contraintes peuvent être résolues avec le concept de collaboration par partage de modèle. J'y reviendrai un autre jour, c'est un concept riche mais sophistiqué. Simplement, la collaboration par partage de modèle permet de :

  • Poser un cadre (le modèle)
  • Donner un espace d'adaptation (le modèle est creux, il reste à le remplir)
  • Donner du sens, c'est-à-dire permettre à celui qui exerce l'adaptation d'apprécier sa contribution à la performance

Concrètement, les acteurs du processus sont condamnés à collaborer en échangeant des informations, ce qui s'inscrit parfaitement dans le contexte de l'entreprise 2.0. Il ne s'agit pas que tout le monde explique tout aux autres ! Le modèle est précisément un outil d'encapsulation.

Je reviendrai sur ce sujet dans des posts futurs, il est assurément complexe et mérite d'autres développements. Mais on voit tout de suite que ce concept de partage de modèle ne remplit pas les objectifs de simplicité et lisibilité d'une « belle théorie du pilotage de la performance ». Ce que je peux résumer en disant que le management de la performance des processus s'ajoute mais ne se substitue pas à la problématique du management de la performance de l'entreprise.


dimanche, novembre 01, 2009

Systèmes (humains) Complexes: quelques pistes de réflexion

Je reprends le clavier avec un post promis depuis longtemps sur le livre de Philip Ball « Critical Mass ». C’est un des livres les plus denses parmi ceux dont j’ai parlé ici. Je le recommande chaleureusement mais ce n’est pas une lecture de plage… Ceux qui trouvent que Taleb est difficile feront bien de s’abstenir. Philip Ball est un physicien reconverti dans l’histoire des sciences et dans l’écriture. Plusieurs de ses livres ont été primés, dont Critical Mass qui a reçu le prix Aventis.

« Critical Mass » est un essai, qui couvre un grand nombre de thèmes en prenant l’histoire des idées comme une sorte de fil rouge. Son introduction, centrée sur Hobbes et sur le Leviathan, n’est pas sans rappeler « The Social Atom » de Buchanan dont j’ai déjà parlé. Philip Ball liste les nombreux scientifiques et philosophes qui, à la suite de Hobbes, ont été à la recherche des « laws of society ».

Selon mon habitude je vais lister les points qui sont intéressants du point de vue de ce blog. Ce que je ne ferai pas, faute de temps, de culture et de talent, est de replacer tous ces points dans leur contexte historique.

  • L’histoire de la « bell-shaped curve » (ce que nous appelons la Gaussienne), de Moivre à Gauss, en passant par de nombreux contributeurs est passionnante, en particulier pour ceux qui s’intéressent aux méthodes de qualité totale (de type six-sigma). De fait, les premières gaussiennes produite par des astronomes comme Pierre-Simon Laplace étaient précisément des courbes d’erreurs. Les liens entre la sociologie et la physique (en particulier l’électromagnétisme), auquel on ne pense pas forcément, ont produit des allers-retours qui ont engendré les statistiques.
  • La théorie de la birfurcation de Prigogine est brièvement évoquée (on la retrouve dans la plupart des livres sur les systèmes complexes). En toute franchise, je n’y ai pas compris grand-chose avant de lire Chaos de James Gleick. La bifurcation est un état critique qui conduit au doublement du nombre d’états stables. L’intérêt de ce concept est qu’il s’agit de la brique élémentaire de la complexité du chaos (une infinité d’états stable qui forment dans l’espace de phase des figures fascinantes et incroyablement complexes). Autrement dit, la richesse de l’empilement de la multitude d’états qui constitue le chaos est le plus souvent engendré par ces points de bifurcation. Le point le plus intéressant de ce chapitre est le fait de voir l’existence d’une structure fractale (par exemple comme un flocon de neige) comme la signature d’un processus de croissance (p. 110).
  • La description des boids de Craig Reynolds est une bonne introduction à l’émergence. Un boid est une contraction de « droid » et « bird », c’est un avatar d’oiseau logiciel. La contribution de Craig Reynolds est d’avoir reproduit la beauté et la complexité d’un vol de milliers d’oiseaux à partir de règles fort simples et locales (ne s’appliquant qu’à un oiseau à la fois). Cette approche s’applique également aux foules (mobs), selon les travaux de Helbing & Molnar. Philip Ball continue avec une synthèse des modèles de trafic routiers (Lighthill, Nagel-Schreckenberg, …).
  • Le chapitre le plus passionnant s’intitule « Rythms of the Marketplace ». On y trouve des idées également exposées chez Buchanan ou Taleb, mais plus détaillées et plus argumentées. Le point de départ est la constatation, due à Benoit Mandelbrot, que les graphes des évolutions des « stocks » (actions) ne peuvent pas s’expliquer comme des processus aléatoires (qui engendrent des signatures Gaussiennes) mais nécessitent des processus plus complexes avec une notion d’apprentissage. Après une première intuition d’utiliser des « marches aléatoire de Lévy », la découverte que les variations des stocks sont « scale-free » nous lancent, avec l’auteur, sur la recherche de l’explication de cette structure remarquable. Tout au long du livre, on trouve des exemples passionnants de ce type de distribution, comme par exemples la distribution de la taille des « avalanches » sur un tas de sable. Un autre exemple intéressant est celui du vote : dans un système d’élection avec un très grand nombre de candidats (ex : Brésil, 1998), on retrouve une « power law » (exposant -1) avec sa « long tail ». Autrement dit, le nombre de candidats qui reçoivent une fraction p du vote est inversement proportionnel à p. Ceci démontre que le vote n’est pas fait de millions de votes indépendants mais qu’il y a un processus d’apprentissage, where « the rich get richer ».
  • La première étape de ce parcours passe par la notion de SOC (self-organized criticality), une propriété « miraculeuse » qu’on certains systèmes de se réorganiser en permanence pour retomber sur un état critique. « Self-organized criticality is one of the few genuinely new discoveries to have been made in statistical physics over the past two decades ». Le lien avec le point précédent est que précisément SOC engendre des distributions “scale-free”. Per Bak est un des premiers à avoir conjecturé que l’économie est dans un état de self-organized criticality, un état qu’il est impossible de stabiliser et dans lequel des fluctuations mineures peuvent engendrer des « avalanches » de toutes tailles.
  • Le chapitre 11, « The growth of many hands » porte sur un sujet plus proche de ce blog, celui de ma modélisation des entreprises et de ce qui fait leur succès. Il porte sur deux questions classiques : pourquoi avons-nous besoin d’entreprises (quel avantage apportent-elles) et qu’est-ce qui explique la distribution des tailles d’entreprises (qui est remarquablement stable et bien étudiée). Le point de départ est le « modèle » de Robert Gibrat, qui s’appuie sur l’étude statistique des distributions d’entreprise en fonction de leur croissance (la combinaison de deux « powerlaws »). Pour expliquer une telle distribution, Philip Ball nous présente le modèle de Robert Axtel (que j’ai évoqué dans la revue de « Social Atom »). Ce modèle, librement inspiré de la théorie des transactions de Coase, suppose que les entreprises croissent en fonction de leur capacité à attirer des acteurs, qu’ils soient des « talents » ou des « free-riders » (profiteurs à faible contributionJ). Le modèle d’Axtell produit des distributions nombre/taux de croissance qui sont proches de ce qu’observe Gibrat. Bien entendu, comme le souligne Ball, « No one is claiming that this is a perfect model of firm growth. It neglects all manner of important things … ». Néanmoins, sa capacité à prévoir des distributions réelles fait penser qu’il s’appuie sur une propriété « universelle » des entreprises. Le modèle permet de produire des courbes représentant l’histoire type d’une entreprise, avec la phase de croissance exponentielle, suivi par un déclin plus rapide. On arrive alors à l’explication paradoxale du déclin: le succès d’une entreprise attire trop de « free-riders » qui finissent par l’étouffer. Toute ressemblance avec des situations existantes serait fortuite J En revanche, la forme générale de la « courbe de vie » des entreprises est remarquablement proche de ce que l’on observe statistiquement (dans la forme et la durée – cf. p 267).
  • Le chapitre 16, “Weaving the Web”, s’intéresse à la structure du Web et ce qui fait sa robustesse. On y trouve (p. 382) la distribution de probabilité des liens sur les documents du Web, qui suit également une « power law » remarquable. L’invariance d’échelle du Web est également très bien commentée dans Linked de Albert-Laszlo Barabasi. J’ai déjà parlé de ce livre mais je ne l’ai pas encore commenté. Pourtant l’analyse des réseaux d’interactions de la biologie moléculaire (qui fait aussi apparaitre des réseaux « scale-free ») est passionnante (brièvement évoquée dans ce chapitre 16). Je cite Ball « The scale-free structure of metabolic networks makes sound evolutionary sense, because it makes metabolism relatively insensitive to small incidence of random failure”. Il y a donc bien une propriété intéressante à capturer dans la conception de réseaux informatiques, ou de systèmes de réunion, pour reprendre un de mes thèmes chers.
  • Les deux derniers chapitres traitent de la coopération. On y retrouve les expériences de Robert Axelrod sur TFT (Tit-for-Tat), la meilleure stratégie pour jouer au dilemme du prisonnier. On y découvre que l’introduction d’une forme de rétribution favorise grandement la coopération dans le dilemme du prisonnier (travaux de Fehr et Gächter). On découvre également que lorsque le jeu devient perturbé par un bruit aléatoire, la meilleure stratégie devient GTFT (Generous Tit-for-Tat). Autrement dit la générosité est la stratégie la plus robuste aux aléas. Il n’y a qu’un pas, pour les aficionados du Darwinisme comme outil d’explication de la psychologie collective, pour en conclure que l’altruisme est une évolution Darwinienne de l’espèce, mieux adaptée à la collaboration, et donc plus efficace J Je vous laisse découvrir les expériences de Nowak et Sigmund pour vous faire votre propre opinion. Je cite un abstract d’une des présentations: « Martin Nowak will argue that indirect reciprocity is the key mechanism for the evolution of social intelligence and human language”.

Cette courte liste est très incomplète. Le livre fourmille d’analogie entre des systèmes humains et des systèmes physiques qui présentent de propriétés communes, sur des thèmes tels que la politique, les règles de vote, la criminalité, … On retrouve aussi évoqué des thèmes dont j’ai déjà parlé : l’expérience du bar d’El Farol, les petits mondes de Watts, les recherches d’Axelrod. Sans faire de mauvais jeux de mots, il faut une « critical mass » de lectures pour apprécier la profondeur et la pertinence de ce que Philip Ball écrit. Je recommande de lire en parallèle Bernstein, Taleb, Buchanan et Gleick (son best-seller, Chaos, est une bonne introduction à la théorie du chaos, des fractals et de la contribution de Benoit Mandelbrot – ce qui permet de mieux comprendre Taleb).

jeudi, août 20, 2009

In Memoriam Paul Caseau (1935-2009)

En mémoire de mon père, qui nous a soudainement quitté le 9 Aout, ce blog restera silencieux pendant trois mois.
Ce blog reçoit entre 500 et 1000 visites par mois, avec peu de commentaires laissés mais un certain nombre de réponses en direct par email. Mon père était mon premier lecteur, qui a accompagné ce projet depuis 4 ans et m'a fait d'innombrables suggestions.

dimanche, août 09, 2009

Business Process Communication Model

Après une longue interruption de plus de deux ans, j'ai repris mes recherches sur SIFOA (Simulation of Information Flows and Organizational Architecture). Cette pause m'a permis de développer des outils tels que GTES ou la modélisation des réunions, et de progresser dans l'analyse de deux thèmes clés : le Lean Management et Entreprise 2.0. Je ferai un point général dans un prochain message sur la nouvelle version (2009) de SIFOA ; aujourd'hui je vais introduire une pièce fondamentale du puzzle : le BPCM (Business Process Communication Model).

Il s'agit en fait du socle de la démarche. En 2006, j'ai réalisé un simulateur d'entreprise (avec ses processus métier) qui m'a permit d'étudier l'impact de l'organisation et de l'utilisation des canaux de communication sur la performance. Les premiers résultats étaient très encourageants (dans le sens où il est effectivement possible de valider et d'invalider des intuitions sur la théorie de l'organisation par une simulation numérique), mais la complexité de la construction est un handicap évident à la présentation de ces résultats.

J'ai donc cherché à décomposer et simplifier les éléments de ce premier travail pour faire émerger des blocs indépendants, qui puissent être proposés à la critique des communautés « Recherche Opérationnelle », « Management Science » et « Aide à la décision » (ce que je viens de faire avec mon travail sur la modélisation des réunions sous la forme d'un article scientifique qui sera soumis à la rentrée, ou avec GTES, qui va sortir incessamment dans la revue RAIRO). Dans cette décomposition, le rôle crucial du modèle des flux de communication associés aux processus émerge pour différente raisons :

  • Il ne peut pas y avoir de contribution scientifique en utilisant la simulation numérique si le modèle sous-jacent n'est pas défini, formalisé, self-contained (auto-référent). Autrement dit, faire de la simulation sans modèle clair revient à faire du bricolage, c'est amusant et cela peut dépanner, mais on ne faire pas avancer les choses. D'où la décision de s'intéresser au modèle des flux de communication (BPCM) en tant qu'objet d'étude autonome.
  • Il se trouve que le modèle des flux est une partie importante du travail d'analyse de SIFOA. C'est une véritable « contribution » puisque c'est la partie la plus originale de ce travail. C'est également une étape indispensable pour analyser la performance des processus dans les services, dès qu'on s'intéresse aux « knowledge workers » et aux outils de l'Entreprise 2.0. L'ambition de BPCM est d'être contribution autonome, indépendamment de toute simulation. Je viens également de terminer l'excellent livre de Didier Vanoverberghe « Le Business Assurance pour la performance de l'entreprise » qui propose un « Business Process Performance Model ».
  • Par ailleurs, un certain nombre de modèles liés aux processus d'entreprises et leur efficacité commencent à émerger. Il est donc intéressant de s'y rattacher (j'y reviendrai en faisant référence aux travaux du CEISAR ou à l'approche IBM Blue Works).
  • Pour finir, après une année à développer un outil par ajouts successifs (cf. l'historique sur lequel je reviendrai), il était temps d'appliquer un coup de « Rasoir d'Occam » et de simplifier. C'est bien sûr plus facile après une première implémentation, je ne vais conserver que ce qui est utile.

La meilleure façon d'introduire le sujet est de vous proposer une brève revue du livre« Organizations » de James March et Herbert Simon (avec deux ans de retard). C'est un des livres les plus cités sur la théorie de l'organisation et à juste titre. Selon mon habitude, je vais me contenter d'une liste de points saillants par rapport aux objectifs de ce blog, mais je vais également l'agrémenter de citations, parce que d'une certaine façon ce livre est la justification du travail sur SIFOA.

  • L'introduction de la seconde edition (1993) commence par poser l'organisation en tant qu'outil de communication, une composition hybride entre la structure hiérarchique et le réseau des processus : « The central unifying construct of the present book is not hierarchy but decision making, and the flow of information within organizations that instructs, informs, and support decision making processes ».
  • « The garbage-can theory of decision making » : un nom provocant pour une remarque d'actualité dans le monde 2.0, les opportunités et les choix forment un réseau très maillé dans lequel la « sérendipité » joue un rôle aussi important que l'analyse structuré. C'est une des raisons pour laquelle la circulation d'information est créatrice de valeur (si il reste du temps pour travailler J).
  • Le chapitre 2 propose une synthèse des « classiques de la théorie de l'organisation » (sur ce thème je recommande chaleureusement « 100 ans de Management » de Bruno Jarosson). Je me suis inspiré de sa caractérisation des tâches : Capacity, Skill (speed), durability, costs et de sa « theory of departmentalization » qui relie l'organisation à un problème d'affectation. On y trouve également à une référence à James D. Mooney qui propose 5 principes pour définir une organisation : coordination verticale et horizontale (hiérarchie et processus), leadership, délégation et autorité.
  • Les chapitres 3,4,5 traitent de la motivation et des conflits (très intéressants mais hors de mon sujet).
  • Le début du chapitre 6 traite de la rationalité limitée, qui est en soi même une fondation pour la simulation, même si la compréhension de la « limitation » est difficile. Une de ces limites est l'attention (cf. le post précédent), dans le sens de la bande passante limitée (ne serait-ce qu'à cause du temps).
  • Un peu plus loin dans le chapitre 6, on trouve cette idée fondamentale : le degré d'interdépendance entre les départements (divisions/unités) est fortement corrélé avec la spécialisation. « Interdependence does not by itself cause difficulty of the pattern of interdependence is stable and fixed . … . Difficulties arise only if program execution rests on contingencies that cannot be predicted perfectly in advance". Un peu plus loin: "Thus, we predict that process specialization will be carried furthest in stable environments, and that under rapidly changing circumstances specialization will be sacrificed to secure greater self-containment of separate programs". Une idée présente dans le lean management et une loi expérimentale redécouverte par de nombreux pilotes de processus.
  • Les auteurs énonce une proposition qui est précisément l'objectif de ma recherche : « The capacity of an organization to maintain a complex, highly interdependent pattern of activity is limited in part by its capacity to handle the communication required for coordination. The greater the efficiency of the communication within the organization, the greater the tolerance for interdependence. The problem has both quantitative and qualitative aspects". La page précédente a introduit la notion de coordination par plan et coordination par feedback, ce que j'avais utilisé implicitement dans mon modèle (et que nous retrouverons dans BPCM).
  • L'expérience Christie-Luce-Macy montre l'importance du vocabulaire. Des équipes doivent travailler au moyen de billes de couleur. Les équipes témoins ont des billes de couleur unique, les équipes test des billes avec des lignes multicolores. Ces équipes n'ont obtenu des performances comparables aux équipes test qu'une fois passé le temps à définir un vocabulaire commun.
  • Une des dimensions importantes dans la communication est la perte de fidélité (nous l'avons déjà évoqué et nous y reviendrons). March & Simon identifie le concept d'absorption d'incertitude, qui ressemble à la « narrative fallacy » de Taleb, comme une cause première d'inefficacité dans la transmission.
  • Quelques pages sont consacrées aux « communication channels » et au réseau qu'ils constituent (« Rational organization design would call for the arrangement of these channels so as to minimize the communication burden »). Les auteurs conjecturent que l'usage des canaux est auto-optimisante mais avec un effet d'apprentissage qui peut créer des mauvaises habitudes. L'impact de l'usage de tel ou tel canal sur la latence de la propagation de l'information est clairement identifiée J
  • Le chapitre 7 propose une discussion élaborée sur la planification. L'importance du temps, de la gestion du temps disponibles et des deadlines y est clairement explicitée. Avec la remarque suivante, baptisée « Gresham's Law » : « Daily routine drives out planning » - autrement dit, nous donnons priorité à ce qui est urgent (daily) et ce qui est structuré (routine, avec des objectifs clairs) sur ce qui est stratégique (moins clair) et à plus long terme. Une des conséquences est la multiplication des « jalons temporels » (deadline, réunion d'avancement, ordonnancement) que le management impose pour éviter une dépriorisation.

L'objectif du BPCM est donc parfaitement résumé dans ce livre par l'étude quantitative de l'efficacité de la communication dans l'entreprise pour exécuter des processus, c'est-à-dire des patrons (patterns) d'activité complexes et fortement interdépendants. On peut distinguer trois parties dans un tel modèle :

  • Business Process Model : modèle de l'entreprise, de ses processus et de son efficacité. C'est un sujet commun et je vais m'appuyer sur des concepts éprouvés, avec le maximum de réutilisation (Entreprise -> Unités, Ressources, Compétences …, Processus -> activité, Client -> valeur).
  • Enterprise Information Flow Model : modèle décrivant l'organisation de l'entreprise dans sa capacité à transmettre des flux d'information. Pour faire simple, on y trouve l'organisation du management (puisque, selon March & Simon, une des fonctions du management est précisément de transmettre l'information) et des canaux de communication.
  • Business Process Communication : modèle de la communication nécessaire à l'exécution des processus métiers. Un processus est un enchainement d'activité, le plus souvent complexe et mettant en œuvre de nombreuses interdépendances (en particulier dans le monde des services). Cette mise en œuvre passe par la communication, et la thèse du livre de March & Simon est que l'organisation de l'entreprise sert à porter ces flux d'information. Cette 3e partie du modèle sert à caractériser la « charge de communication », ce qui permet ensuite de confronter cette charge à l'organisation.

Le second sujet est plutôt bien étudié, ce que j'ai indiqué dans différents posts, par exemple en faisant référence à CMC (Computer-Mediated Communication). L'enjeu pour BPCM est plutôt de faire un choix éditorial pour garder au modèle sa simplicité (et donc sa pertinence J). La conclusion des différents travaux effectués depuis 4 ans est qu'il faut au moins quatre dimensions pour caractériser les canaux : B(andwidth), T(hroughput), L(atency) et F(idelity). Ces dimensions s'ajoutent et se combinent avec celles présentées dans mon analyse de 2006 et qui touchent à la description des emetteurs/récepteurs : M(utualization), U(tilization),F(requency) . Je ne vais pas rentrer dans le détail aujourd'hui, d'autant plus que je n'ai pas encore terminé la formalisation (et la simplification) de cette approche.

Le troisième sujet est – de façon surprenante – nouveau. On trouve peu d'information dans la littérature sur les processus qui s'intéresse à la quantification des communications nécessaires pour l'exécution de ces processus. En conséquence, je n'ai pas beaucoup progressé depuis ma première proposition de 2006.Dans BPCM je vais reprendre la même approche, mais l'étendre en fonction des exigences du EIFM (flow model). Une conséquence de l'absence de données chiffrées et publiées est qu'il faut construire un modèle paramétrable (dans lequel les données que nous ne connaissons pas sont des paramètres) et produire des études paramétriques (études de sensibilité sur ces paramètres). Si l'on se souvient que j'associe deux types de flux à l'exécution d'un processus : Monitoring & Feedback + Transfert & Synchronisation, il me semble nécessaire avec le recul de séparer les sens des flux lorsqu'ils vont d'une unité vers le management ou vice-versa. Il me semble maintenant évident que la communication est asymétrique et que cela doit être prise en compte par le modèle.

Je reviendrai en détail sur chacun de ces sous-modèles. Pour conclure, je vais résumer trois idées qui me semblent essentielles pour le modèle BPCM :

  1. La dimension « bandwidth », qui qualifie la capacité d'un canal de communication à permettre des « allers-retours » dans le processus de communication, implicites ou explicites, est fondamentale et ne peut pas être ignorée. Ces allers-retours garantissent l'appropriation, car la communication n'est pas un transfert d'information, comme nous le rappelle Dominique Wolton, c'est un processus (« L'information va de plus en plus vite, la communication toujours aussi lentement »). Ces allers-retours sont implicites par exemple lorsque j'adapte mon discours à la posture faciale ou corporelle de mon interlocuteur. Ils sont explicites dans le cas d'un dialogue. La « bandwidth » permet de comprendre la supériorité de la communication face-à-face par rapport à l'utilisation d'outils électroniques (email, téléphone, etc.)
  2. Nous sortons du domaine du « management scientifique » de Taylor lorsqu'il devient nécessaire de dire ce que nous faisons. Cette réalisation est partiellement énoncée dans le livre de March & Simon. Le management scientifique était conçu sur le modèle « breakdown & specialization ». Le besoin de communiquer ce qui est réalisé (qui n'existe pas dans une usine idéale qui suivrait un processus industriel parfaitement maîtrisé) s'oppose à la spécialisation. C'est précisément la nature complexe et variable des processus de service qui justifie la création et l'optimisation de l'organisation en tant que structure de communication.
  3. Le modèle BPCM peut servir de « théorie des réunions » s'il tient compte des quatre dimensions précitées. Pourquoi avons-nous autant de réunions ? Parce que la communication face-à-face est obligatoire à partir d'un certain niveau de complexité/variabilité et parce que la réunion est la réponse naturelle pour gérer l'ordonnancement de ces rencontres. La structure de réunion émerge naturellement pour gérer un temps contraint, minimiser les coûts de « setup » (préparation, changement de contexte) et gérer les priorités.



samedi, juillet 04, 2009

Biodiversité et compétences : sauvons notre attention !

J'ai eu la chance d'être invité au MIP (Management Institute of Paris) pour débattre sur le thème « Google nous rend-t-il idiot ? ». Pour comprendre le sujet, il faut d'abord lire l'article original de N. Carr. Ensuite, précipitez vous chez votre libraire pour acheter le numéro Juillet/Aout de Books, un numéro consacré précisément à la question « Internet rend-il encore plus bête ? ». C'est un sujet passionnant, et dont nous entendrons parler pendant longtemps, parce que les enjeux sont fondamentaux, pour la société, les entreprises et les individus. Le numéro de Books est vraiment remarquable, par le choix des livres et la qualité des articles.

Résumons brièvement le problème. N. Carr constate que le monde dans lequel nous vivons, avec toute l'information possible (sic) à portée de main (ce qui est exemplifié par Google), nous conduit à consommer ces sources d'information de façon de plus en plus superficielle, de plus en plus rapide, au détriment de la profondeur. Au lieu de lire des livres, nous (?) passons d'article en blog, de page web diagonalisée en flux RSS balayés. Ce mouvement est doublement inquiétant : cette consommation superficielle nous prive de la réflexion profonde nécessaire à une vraie compréhension des choses, et, surtout, à force de ne plus lire « pour de vrai » nous perdons cette capacité à le faire ! Cette aptitude du « scholar », acquise durant les études supérieures, ne se conserve que si l'on s'en sert (comme me disait mon papa « on n'est pas idiot, on le devient »). Pour plus de détail, lire les références précédemment citées.

Notons d'abord que la question se comprend à deux niveaux, celui de l'individu et celui de la société. L'article de N. Carr se situe plutôt au niveau de l'individu, qui constate qu'il est en train de perdre une capacité à causes de mauvaises habitudes, qu'il attribue à l'outil (Internet en général, Google en particulier puisque le moteur de recherche favorise la consommation fractionnée, en «petits morceaux d'information »). Le numéro de Books prend également la vision sociétale, qui est très à la mode (cf. le chapitre 6 de mon livre, centré sur le livre de Mark Prensky : Don't bother me mom, I'm leaning) : est-ce que les digital natives sont devenus « idiots » (dans un sens restrictif et précis : celui d'être incapable de se tenir tranquille plusieurs heures, concentrés sur une question ?). On retrouve ici une inquiétude souvent exprimée chez les enseignants, qui constate que le « niveau de calme moyen » d'une classe au collège a sensiblement baissé en une génération. On retrouve également le syndrome de l'ADD (Attention Deficit Disorder), qui est devenu la « maladie du siècle » pour les enfants américains.

Notons ensuite que cette critique des outils est susceptible d'être retournée, de façon classique : est-ce l'outil qui produit le changement, ou qui accompagne le changement (une dialectique que j'aborde dans mon livre) ? Autrement dit, est-ce Google qui provoque l'ADD (des adultes : besoin d'être stimulé en permanence par des expériences et des idées nouvelles), ou est-ce que le monde Internet/Google est le terrain de jeu naturel pour des hommes et des femmes pressés, stressés par une compétition mondiale, en perte de repère et anxieux de passer à coté de quelque chose ? J'ai déjà exprimé dans ce blog le même retournement au sujet du Web 2.0. Le monde devient-il 2.0 parce qu'il utilise les outils du Web 2.0, ou est-ce le contraire ?. Lorsqu'on se promène sur la blogosphère, on lit de nombreux articles sur ces outils 2.0 qui transforment le monde. Cependant, lorsqu'on lit les travaux des sociologues sur cette société post-moderne, par exemple Michel Maffesoli, on y retrouve les trois tendances de fond du monde 2.0 :

  • Volonté de s'exprimer, de faire entendre sa voix pour masquer la peur de l'insignifiance,
  • Volonté de construire des tribus (des réseaux sociaux) pour retrouver une chaleur qui manque dans une société mondialisée,
  • Volonté d'être l'architecte de sa propre expérience, le CEO de sa propre vie.

Il est donc tout à fait défendable de penser que le Web est devenu 2.0 parce que c'est, de tous les médiums de communication et publication, le plus « plastique » et qu'il s'est adapté le premier aux changements et aux attentes de la société. Dans le cas de la question «  Google nous rend-il idiot ?», ce retournement nous incite à la prudence avant de condamner les outils, mais la question demeure sur l'évolution irrémédiable, ou non, de nos habitudes de lecture.

Je ne vais pas vous priver du plaisir – précisément - de la lecture de Books, ni fournir une mauvaise réponse sur un sujet dont je ne suis pas un spécialiste, mais néanmoins vous proposer six éléments de réflexions :

  1. La plasticité du cerveau et l'influence de l'apprentissage de la lecture sur notre évolution neurologique sont des faits acquis et prouvés. Nicholas Carr fait référence au livre de Maryane Wolf : Proust and the Squid, The Story and Science of the Reading Brain. Pour les francophones, je recommande l'excellent livre de Stanislas Dahaenne: Les neurones de la lecture. L'acquisition de la lecture est un processus fascinant et complexe qui modifie littéralement le cerveau. Nous construisons un outil adapté au mode de lecture que nous pratiquons, et il détermine notre façon de penser.
  2. Plus généralement, la dépendance entre le langage et la pensée, un sujet cher aux philosophes, est également acquise. Le niveau de langage étant fortement lié à la lecture, les deux sujets sont corrélés. Nassim Taleb, que j'ai cité dans mon post précédent, insiste sur sa démarche volontaire d'élever son niveau de pensée (en profondeur et en degré d'abstraction) par la lecture de livres au détriment d'articles ou de journaux. Il montre aussi pourquoi il est nécessaire de se « débrancher des flux continus » d'information, puisque nous avons tendance à voir du sens là ou il n'y en a pas (le « narrative fallacy »).
  3. La connaissance n'est pas l'information, elle est irrémédiablement liée au temps (pour l'instant). La connaissance est le processus qui construit une décision à partir d'information. On peut facilement multiplier l'information accessible, il est difficile d'augmenter rapidement ses connaissances. La connaissance, comme la prise de décision, est liée à la perception. C'est ce que nous apprend Alain Berthoz (lire, par exemple, « La Decision »). La connaissance se construit par l'expérience, le temps de la lecture « profonde » est nécessaire pour construire la connaissance d'un sujet à partir de la lecture d'un livre. La lecture en diagonale d'une page de Wikipedia n'a pas, hélas, le même effet.
  4. Le fond du débat porte bien sur la gestion de notre temps, et plus précisément sur la gestion de notre attention. Cette idée date de Herbert Simon (1971) : « the growth of information causes scarcity of attention ». C'est un des axiomes les plus important du monde d'aujourd'hui, lire à ce sujet "The Attention Economy : Understanding the New Currency of Business" de Davenport & Beck. Puisque l'information est extrêmement riche et complètement accessible, la denrée rare est le temps. On retombe alors sur un débat éternel : « broad » versus « deep ». Les lecteurs assidus reconnaîtront le paradigme avec lequel j'analyse les réseaux sociaux. « Broad » consiste à privilégier l'étendue au détriment de la profondeur, à regarder beaucoup de sujets, mais superficiellement. « Deep » est l'approche inverse, celle que regrette N. Carr, de ne traiter que peu de sujets, mais en profondeur.
  5. La capacité à traiter de nombreux sujets en parallèle, ce que l'on appelle multi-tasking par analogie avec l'informatique, modifie en profondeur les capacités de traitement et de concentration.  Je rapporte dans mon livre l'anecdote de l'animateur de club d'échec qui constate que les jeunes joueurs sont beaucoup plus performants en blitz (partie rapide) mais souffrent plus pendant les parties longues. J'ai déjà cité dans ce blog les travaux de l'université de Londres qui montrent que nous perdons 10 points de QI si nous sommes possesseurs d'un Blackberry « actif ». De la même façon, Tom De Marco rapporte des chiffres spectaculaires sur la baisse de productivité des programmeurs lorsqu'ils doivent gérer des interruptions.
  6. En revanche, et c'est le sujet du livre précédemment cité de Mark Prensky, et de celui de Dan Tapscott (qui est commenté dans Books : « Grown up digital »), les « nouvelles » compétences des « digital natives » sont très utiles et adaptées au monde moderne, et en particulier au défis des entreprises mondialisées. Ces nouvelles compétences, induites par Internet, le monde des jeux vidéos et les nouveaux outils de communication, favorisent la collaboration, la capacité à réagir plus vite, le multi-tasking (faire plusieurs choses en même temps). Même si la création individuelle reste fondamentale (ce que nous pourrions appeler « deep innovation »), l'essentiel de l'économie repose sur la création collaborative,  le célèbre « mash up » du Web 2.0 (« broad innovation »). Cette création collaborative repose précisément sur des compétences de « digital natives » : travail en parallèle, collectif – en réseau, création par rebond, …)

Une fois ces points posés (et digérés, ce qui peut prendre un peu de temps), je peux donner ma réponse personnelle à la question. Je ne pense pas que « Google rende idiot », ni au sens propre (c'est un outil formidablement utile – surtout si on n'est pas « idiot » au départ J ), ni au sens général : les attitudes, les compétences et les comportements changent, mais ce n'est pas une régression. Tout laisse à penser que ce changement est opportuniste et opportun (avec la difficulté précédemment évoquée de choisir entre les deux): les compétences évoluent avec la société. C'est d'ailleurs le thème dominant des articles du numéro de Books : savoir accepter le changement et rester optimistes. Cela n'empêche pas de rester vigilant pour ne pas perdre les compétences « de lecture attentive » construites par des successions de générations.

Je conclus donc cette réflexion avec deux points qui sont congruents avec les thèmes de ce blog :

  1. le vrai enjeu, d'un point de vue personnel, est la gestion que nous faisons de notre propre temps. A chacun de savoir prendre du recul et se débrancher du flux « temps réel ». Notre « attention » est un trésor que se disputent les publicitaires. A nous de le gérer de façon profitable.
  2. Les compétences, comme les espèces, naissent et meurent. La capacité à prendre du recul, s'isoler et rester longtemps à méditer sur une question, mérite, tout autant que les ours polaires, d'être sauvegardée J Ce point se combine évidemment avec le précédent : à chacun de développer et préserver cette capacité à concentrer son attention.


 


 

vendredi, mai 08, 2009

Simulation, Jeux et Prévisions face à l’incertitude


Le post d'aujourd'hui part d'un petit compte-rendu de lecture pour se terminer dans une discussion sur le « rôle » des jeux, dans le sens de la méthode GTES décrite dans ce blog. C'est-à-dire l'utilisation d'une simulation, non pas comme outil de prévision mais simplement pour se forcer à examiner une situation sous des points de vues différents (on pourrait dire « s'aérer les neurones »).

Le point de départ est le livre « The Black Swan » de Nassim Nicholas Taleb. Je vous ai déjà parlé de « Fooled by Randomness », que je vous recommande encore plus chaleureusement (à lire en premier, avant le Black Swan – nom symbolique donné à un événement hautement improbable). L'arrivée de la crise, qui illustre parfaitement les idées de Taleb, a fait de lui une star dans le domaine de la finance, sur un mode « rebelle et philosophe » (pour commencer, lire l'article de Wikipedia).

Proposer un résumé du Black Swan pour vous présenter les idées de Taleb est comme jouer les premières mesures de la 40e symphonie sur mon harmonica pour vous présenter Mozart. Encore plus que Malcom Gladwell, il faut faire l'expérience de la lecture pour apprécier la saveur (« the proof of the pudding is in the eating »). Selon mon habitude, je vais me contenter de relever une liste de points congruents avec le thème de ce blog (très succincte par rapport au contenu).

  • «Trop d'information tue l'information » : la valeur ajoutée de l'information n'est pas une fonction croissante. De nombreux exemples montrent qu'on prend des meilleures décisions avec peu d'information qu'avec beaucoup (cf. « Blink » de Malcom Gladwell par exemple). C'est très bien expliqué et illustré par Taleb (« additional knowledge of the minutiae of daily business can be useless, actually toxic »), avec l'expérience fascinante du "fire hydrant". Il s'agit de reconnaitre un objet à partir de photos floues, exposées en séquences de moins en moins floues. Une séquence avec plus d'étapes intermédiaires ralentit le moment où l'objet est reconnu.
  • Il relate une anecdote savoureuse sur les risques dans les casinos, que je vous laisse découvrir, mais qui n'est pas sans rappeler « Normal Accidents » de Perrow. C'est une bonne illustration de la puissance de la tautologie « It's hard to foresee the unexpected », qui reste une perle de sagesse pour ceux qui sont en charge de garantir la « haute disponibilité ». Le livre fourmille d'illustration de cette tautologie, dont l'histoire du poulet de B. Russel.
  • Dans la même veine (mais un peu plus subtile), une loi fondamentale sur l'évaluation de l'incertitude est que nous sous-évaluons systématiquement notre ignorance. C'est ce que j'avais appris il y a plus de 20 ans en suivant les cours d'Hervé Le Lous d'analyse de la décision. Taleb fait référence aux expériences d'Albert et Raiffa, qui sont semblables aux expériences que nous avions réalisé au Collège des Ingénieurs. Le principe est simple : il s'agit d'encadrer des quantités que nous ne connaissons pas avec un intervalle de confiance … Ils sont toujours trop petits !
  • Un des concepts les plus intéressants (dans la suite de « Fooled by Randomness ») est la notion de « Narrative fallacy », qui désigne notre tentation permanente de raconter une histoire, de créer du sens (même s'il n'y en a pas) pour pouvoir mieux manipuler et ranger les informations. Il y a un lien élégant avec la théorie de l'information et la complexité de Kolmogorov : trouver un sens à une série d'observation permet de réduire la mesure, de « compacter ». Taleb cite un fait fascinant : en injectant de la dopamine à des patients souffrant de Parkinson, on peut observer une recrudescence du « narrative fallacy ». L'injection de L-dopa a pour but de faciliter la « résolution des conflits » entre différentes parties du cerveau, permettant d'arriver plus rapidement à des états stable et éliminant des « oscillations » propres au sujets atteints de Parkinson. Il se trouve qu'un effet pervers est le développement de la capacité « à voir du sens là ou il n'y en a pas », à trouver des règles dans les résultats aléatoires des dès ou des cartes au Casino, et de ce fait de perdre des sommes importantes J
  • La fin du livre contient un petit catalogue de distributions du monde réel qui suivent des power laws. J'y reviendrai lorsque je ferai le résumé de « Critical Mass » de P. Ball. De la même façon, Taleb fournit de nombreuses réflexions épistémologiques sur le hasard, le risque et l'incertitude, qui ne sont pas sans rappeler le traité magistral de Peter Bernstein « Against the God : The Remarkable Story of Risk ».
  • Pour finir, Taleb met en garde (à juste titre J) contre l'ingestion de résultats de simulation (avec un plaidoyer qui n'est pas sans rappeler Michael Crichton dans « State of Fear »). Je vais y revenir, mais puisqu'un des axiomes de Taleb est « the great asymetry » (le calcul de probabilité des événements très rares est très difficile, le calcul de leurs conséquences ne l'est pas forcément), il faut se concentrer sur les « conséquences » et non sur les « causes ». Toute simulation qui cherche à prévoir les effets à partir des causes est suspecte, ontologiquement.

Ce livre est un enchantement à lire, à cause de la culture de Taleb et de son style inimitable. Cela ne veut pas dire que tout soit à prendre « pour argent comptant ». Comme il est plus amusant de débattre que de résumer, voici trois points qui me semblent discutables :

  • (p. 76), Taleb remarque que la phrase :
    Joey seems happily married. He killed his wife.
    est moins plausible que la phrase :
    Joey seems happily married. He killed his wife to get her inheritance.
    alors que d'un point de vue logique, ajouter une condition de plus ne peut que réduire la probabilité. Taleb y voit « a pure mistake of logic ». Sauf que …. La probabilité conditionnelle de tuer sa femme sachant qu'il y a un héritage en perspective est plus forte que la probabilité conditionnelle ne sachant rien (on m'excusera cet « axiome de roman policier » - depuis l'histoire du SMS et du train, la prudence s'impose). Plus généralement, il y a dans les probabilités conditionnelles, l'inférence Bayésienne et les logiques non-monotones des outils mieux adaptés pour traiter ces sujets.
  • La critique portée (p . 276) contre Mark Buchanan et Philipp Ball (deux des auteurs commentés dans ce blog) est intéressante mais trop appuyée pour être pertinente (on peut leur reprocher un certain enthousiasme sur leur envie de modéliser la société humaine comme des particules dans un gaz, mais ils sont tout sauf naïfs et seraient les premiers à reconnaitre l'existence des black swans dans des modèles dans lesquels les particules « apprennent » et « s'adaptent » (changent de comportement). Je dirai même qu'un des points centraux de Buchanan est précisément que les power laws (qui engendrent des black swans) sont des signatures d'un processus apprenant et adaptatif (par opposition à un processus purement stochastique).
  • Une des idées centrale est que la prévision est inutile parce que les black swans dominent car leurs conséquences écrasent celles des « white swans » (les événements prévisibles). De plus, c'est un des points du livre, même si chaque black swan est exceptionnellement rare d'un point de vue individuel, il existe de nombreux black swans différents, de types variés. Mais, si les cygnes noirs sont vraiment imprévisibles tandis que les cygnes blanc le sont, ne pas se soucier des premiers et s'occuper des second « peut faire sens ». C'est une situation courante en optimisation stochastique : on essaye d'optimiser des mouvements d'ordre deux, tandis que des phénomènes d'ordre un viennent casser continuellement cette mécanique. Il arrive, fréquemment, que cette obstination à travailler sur les « petites choses » tandis que les « grandes choses » nous échappent, soit payante. Bien entendu, l'appel à la lucidité et à la modestie de Taleb est plus que pertinent, il est salvateur. Néanmoins, il reste une place pour les « simulateurs du Mediocristan », même en Extremistan.

Ce dernier point pourrait sembler biaisé de la part de quelqu'un qui passe son temps à construire des modèles et les simuler J En fait, il n'en est rien : bien au contraire le concept de « dynamic games » est le « fils spirituel » de Sterman et Taleb. Nous avons au départ deux courants de pensée qui « remettent en cause les simulations »:

  • Sterman, Senge (et d'autres, cf. les posts précédents) on montré que la modélisation des systèmes complexes, avec quelques délais et boucles de retour, construit des objets mathématiques qu'il faut aborder avec prudence, et dont il serait vain d'espérer une caractérisation complexe. On pourrait remarquer que cette constatation est le cœur du livre de Wolfram « A New Kind of Science ».
  • Taleb nous rappelle que la prévision est inutile/fausse/déceptive (il reste à choisir : c'est là qu'est le débat J) à cause des « black swans », ces événements qui sont en dehors du « radar » et dont l'ordre de grandeur efface ce que la prévision peut enseigner

La notion de jeux prend alors toute sa pertinence : il ne s'agit plus de prévoir mais de s'entrainer (cf. Pasteur : « La chance ne sourit qu'aux esprits bien préparés »). Le dynamic game permet de créer des situations et de les observer, non pas parce qu'elles vont arriver, mais parce que cette étude affine l'analyse et développe des compétences qui s'avéreront utile lorsque la véritable situation se produira. On pense bien sûr aux « war games » des écoles militaires, conçus précisément selon la maxime de Pasteur. La participation au jeu est un entrainement de l'esprit, une préparation qui joue sur deux tableaux : permettre de reconnaitre et analyser une situation plus rapidement, et réagir plus efficacement.

C'est très précisément le thème du merveilleux livre de François Jullien

« Conférence sur l'efficacité » (version courte du « Traité sur l'efficacité »). Ceux qui lisent mes livres savent que c'est un de mes auteurs préférés. François Julien, pour résumer de façon hâtive, oppose la stratégique grecque, tournée vers la finalité et qui s'appuie sur un plan à la stratégie chinoise, tournée vers le potentiel de situation et qui s'appuie sur l'opportunité. La stratégie grecque s'appuie sur la prévision et l'anticipation : elle projette une trajectoire et construit un plan volontariste. Mais comme le dit un proverbe Chinois, « on ne fait pas pousser une plante plus vite en tirant sur sa tige ». Le chinois « jardine son potentiel de situation », il suffit de relire Sun Tzu pour apprécier ce concept de la préparation. Par conséquent, la stratégie chinoise s'appuie beaucoup moins sur la prévision que la stratégie grecque (j'ai bien dit beaucoup moins et non pas « pas du tout » - on ne prépare pas une rizière comme un potager). La pratique du « dynamic game » est l'illustration du concept de stratégie chinoise : renforcer sa préparation pour faire face à l'imprévu.

Ne nous y trompons pas : le jeu a pour but de prendre aujourd'hui les décisions qui améliorent le potentiel de situation, pour une meilleure performance demain. Il ne s'agit donc pas d'un « passe-temps ». Mais il s'agit d'une approche qui est immune à la critique de la volonté « futile » de prévoir l'avenir de façon trop précise …. En fait, pas tant que cela, cette approche du potentiel de situation, tout comme une simulation Monte-Carlo, est une forme de prévision, mais elle est multiforme et abstraite. Un sujet sur lequel je reviendrai.