dimanche, décembre 10, 2006

Pourquoi passer son temps libre à réfléchir sur la structure des organisations ?

Une fois n’est pas coutume, voici une petite contribution plus personnelle, sur les motivations du travail qui est relaté dans ce blog (qui avance à une vitesse extrêmement variable, on l’aura compris).

Pour aller droit au but, ce qui m’intéresse est la structure (l’abstraction), la beauté de cette structure (l’esthétique) et la possibilité de déduire des lois (immuables) qui gouvernent des aspects très pratiques de notre vie quotidienne.

1. Pourquoi cette fascination pour les structures ?

C’est une question immense, et je renvoie le lecteur à l’ouvrage de Douglas Hofstadter, « Gödel, Escher, Bach : les Brins d’une Guirlande Eternelle », qui n’a pas pris une ride, et qui aborde cette question de façon magistrale. Les structures, en particulier les structures récursives ou fractales, ont la capacité de faire éprouver un plaisir quasi-mystique à une partie de l’humanité à la quelle j’appartient. D. Hofstadter fait le parallèle entre les structures mathématiques (en particulier de la logique), les dessins d’Escher (qui joue sur la récursion et sur les structures mathématiques telles que les pavages du plan) et la musique.

Le hasard veut que je travaille depuis quelques mois sur la Fugue II de J.S. Bach (BWV 847), de façon médiocre et lente, car je suis un pianiste débutant. En revanche, je suis un persévérant et cette fugue à trois voix est une cathédrale, une composition magistrale dans laquelle une structure époustouflante se construit à partir d’une combinaison ré-entrante de trois voix et d’une mélodie. Le moment où l’on comprend (une partie de) l’assemblage est une expérience transcendante.

J’essaye de comprendre et de modéliser le fonctionnement des organisations depuis trois ans car je suis, tel le chien de chasse qui a flairé une piste, habité par l’intuition qu’il existe une structure, liée aux flux d’information, de toute beauté.

Comme cela va devenir évident par la suite, il s’agit en premier lieu d’application du concept de graphe. Les graphes sont, de mon point de vue très personnel, les structures les plus fascinantes, par leur simplicité et leur applicabilité pour traiter des problèmes très concrets. On pense à Euler et aux ponts de Koenisberg (http://www.strategielogistique.com/article/page_article.cfm?idoc=67434&navartrech=7&id_site_rech=57&maxrow=8).

En effet, la fascination pour la structure n’est pas simplement d’ordre esthétique, elle est également pratique dans le sens ou l’intérêt est proportionnel au nombre de propriétés non triviales que la structure peut exhiber.


2. Quelle structure ?

Résumons en premier lieu les « épisodes précédents » :

  1. Je m’intéresse au flux d’information dans l’entreprise, avec le parti pris d’en faire la clé principale pour évaluer l’efficacité des organisations. Répétons qu’il ne s’agit pas de restreindre la notion d’organisation à la dimension structurelle. Les dimensions humaines, politiques et symboliques sont également importantes. En revanche, ma thèse (développée dans mon nouveau livre) est que la transformation du monde moderne rend l’aspect structurel (dans sa dimension de gestion des flux d’information) de plus en plus important. C’est ce qui explique, à mon avis, la recrudescence du « conseil en organisation » dans le métier de consultant en management.
  2. Cette approche met sur le même plan l’organisation de la structure de pouvoir (hiérarchique) et l’organisation des réunions et des comités. C’est également un axiome pragmatique et réducteur, que l’on peut résumer en disant : votre chef n’a d’influence sur vous que dans la mesure ou il communique avec vous. C’est un peu simpliste, mais à l’inverse, il m’est apparu que la dimension de la gestion des flux d’information est de plus en plus prépondérante dans la définition d’une « bonne » organisation hiérarchique. Cette unification me permet de définir l’organisation de l’entreprise en tant que réseau social d’interaction.
  3. Cela me conduit à reformuler ma question : quelle est la « bonne » organisation du réseau social de l’entreprise, ce qui consiste précisément à caractériser les propriétés d’une structure, facile à modéliser et à formaliser, mais néanmoins complexe à étudier.

J’ai reproduit ici une figure prise dans l’annexe de mon nouveau livre. On y voit la double structure d’un ensemble de réunion, en tant qu’hypergraphe ou en tant que réseau (ce que D. Watts appelle un réseau d’affiliation). La vue de gauche représente l’ensemble des réunions planifiées auxquelles assiste un individu donné. Chaque réunion est un sous-ensemble de personnes. La taille de l’union de ces réunions est ce que nous avons appelé le diamètre réunionnel (nous ferons un abus de langage en appelant Dr à la fois l’ensemble et sa taille). C’est un sous-ensemble de l’ensemble des personnes vers qui il est nécessaire d’émettre de l’information, dont la taille peut être qualifiée de diamètre informationnel (Di). La vue de droite est une abstraction de la figure du chapitre 6, c’est-à-dire le graphe d’interaction associé au système réunion. Chaque arête représente le fait qu’il existe une (ou plusieurs) réunion commune, l’étiquette associée à l’arête représente la fréquence de contact (une fréquence 1/100 signifie que les deux personnes passent une heure en réunion tous les 100 heures).

Voici donc la structure qui m’intéresse :

(a) L’objet de mon étude est le réseau social d’interaction. La bonne nouvelle est que ce n’est pas original : il y a des centaines de chercheurs (sociologues, mathématiciens – en particulier issus de la théorie des graphes, physiciens et biologistes) qui s’intéressent à ces réseaux. Lire le livre de Duncan Watts déjà cité. La conséquence est que je peux profiter des résultats déjà établis, par exemple sur la structure des petits mondes, sur la distribution polynomiales des degrés, ou sur la notion de connecteurs.

(b) La spécificité de mon approche est de rentrer dans une étude plus qualitative : je travaille sur un réseau étiqueté : chaque interaction est mesurée en durée et en fréquence. D’un point de vue sociologique, ce degré de précision dans la formulation est un approfondissement dans la droite ligne de la sociométrie de J.L. Moréno. Une excellente introduction au domaine de l’analyse des réseaux d’interaction est proposée en ligne par Alain Degenne : http://www.liafa.jussieu.fr/~latapy/RSI/Transparents/degenne.ppt.

Pour un amateur de graphes, c’est un bel objet J Pour un chercheur opérationnel, le lien avec l’optimisation des réseaux de télécommunication est évident.

  1. Quelles sont les questions ? Quel est le critère de succès ?

Le point le plus complexe est de formuler l’objectif et le contexte. Je m’intéresse à l’organisation (famille de réseaux sociaux) la plus efficace en terme de latence (réactivité) et de flexibilité (adapter le débit en fonction des besoins).

C’est à ce moment qu’on quitte le monde des certitudes pour rentrer dans le domaine de l’économie. L’incertitude est partout. Comme je l’ai déjà expliqué, il est très difficile de comprendre et mesurer l’intérêt de la réactivité. Mesurer la réactivité peut se faire en terme de latence, mais son intérêt est lié à un contexte macro-économique qui est difficile à modéliser, mais surtout, dès que l’on rentre dans ce type de modélisation, on introduit une part de subjectivité qui affaiblit considérablement l’intérêt des propriétés que l’on peut établir. La question de la flexibilité est également déconcertante. La flexibilité pour répondre à un ensemble connu de situations différentes se modélise et se mesure, mais la vraie flexibilité consiste à pouvoir répondre à des situations qui ne sont pas connues à l’avance.

C’est là que la méthode de simulation par Jeux et Apprentissage entre en scène. J’ai construit un modèle économique qui me permet de simuler une entreprise (= une organisation en forme de réseau social d’interaction utilisant différents canaux). Je cherche donc, dans un premier temps, à expérimenter pour voir si il existe des propriétés qui sont relativement indépendantes des paramètres du modèle.

Le modèle économique est donc un scénario de fonctionnement du réseau d'interaction, dans lequel le bon fonctionnement de processus créateurs de valeur est lié aux caractéristiques de transfert d'information du réseau. On transforme donc des qualités "théoriques" de réactivité et de flexibilité en mesure de création de valeur, en euros. Bien entendu, la subjectivité réside dans le modèle qui couple la performance économique et le réseau de transmission d'information.

2006 a été consacré à la construction de l’outil, 2007 devrait me permettre de faire ces expériences … dont le résultat n’est ni évident ni assuré. La simulation ne sert pas à trouver des propriétés, elle sert à développer mon intuition sur les propriétés qui pourraient exister et qui mériteraient d’être étudiées par la suite (2008 ?). En fait, devant la complexité de la question économique, le « flair du chien de chasse » que je mentionnais auparavant a disparu et j’utilise l’ordinateur comme un radar, un outil pour développer une nouvelle forme d’intuition.

Ce qui rend cette recherche passionnante (de mon point de vue) n’est pas simplement l’aspect théorique et esthétique, c’est qu’il s’agit de question extrêmement concrète et importante dans la vie de n’importe quelle entreprise. Nous vivons dans un monde complexe qui exige une quantité (et une qualité) d’interaction sans cesse croissante. Cela aboutit à une frustration très commune de « passer sa vie en réunion », qui est assurément un beau sujet d’étude :)

dimanche, novembre 19, 2006

Un nouveau blog ...

Je viens de me diversifier en ouvrant un second blog:

http://informationsystemsbiology.blogspot.com/

Les thèmes touchent à la "biologie des systèmes d'information" : complexité, émergence, qualité de service, autonomie, adaptabilité et évolution ...

Ce nouveau blog est en anglais. A bientot pour un nouveau message sur l'architecture organisationnelle. Je vais reprendre le travail d'expérimentation.

-- Yves

dimanche, novembre 12, 2006

De retour dans la blogosphère ...

J'ai terminé le manuscrit et il est parti chez l'éditeur il y a une semaine !
Je vais donc reprendre mon activité de recherche et d'investigation sur les flots d'information et les structures des entreprises. Même si le sujet du livre (les systèmes d'informations) est différent et plus vaste, mon travail de l'été m'a conduit à appronfondir certaines questions connexes au sujet de ce blog. Aujourd'hui, je me propose de reprendre quelques points importants que vous pourrez découvrir dans l'annexe du livre (probablement en Janvier).
Je vais procéder avec un mélange de copier/coller (lorsque c'est possible) et de synthèse (le cas échéant) ....


1. L'importance de la simulation pour caractériser la latence

Une partie importante de l’action sur l’organisation a pour but d’augmenter la réactivité et la flexibilité. Ces points ont été développés brièvement dans le corps du livre, mais ils sont le centre de nombreux ouvrages de management, dont une partie est citée dans la bibliographie.
Ce sont deux qualités essentielles, tout le monde en conviendra, mais qui sont :
1. difficiles à mesurer,
2. encore plus difficiles à valoriser.
Pour reformuler de façon plus claire, si une nouvelle organisation permet de réduire de 10% le temps de propagation de l’information, quel est le gain économique pour l’entreprise ? Il est, pour l’instant, très difficile de répondre à cette question, même pour une entreprise donnée.
Cette conclusion, négative, est la seule que je pouvais tirer dans mon livre, mais elle m'a convaincu de l'importance du travail de simulation que j'ai entamé.

Je compte donc me remettre au travail en terme d' "expérience computationelle" (franglais). Je reviendrai un autre jour sur mon plan d'action 2007. Pour faire simple, il y a 3 étapes:

  1. Tenir compte des quelques idées développées pendant l'été pour améliorer le modèle (cf. les points suivants de ce message)
  2. Automatiser l'exécution des simulations, puisque, comme je l'ai expliqué en Juin, ces expériences prennent un temps considérable pour leur exécution.
  3. Enrichir la prise de mesure pour permettre une analyse plus automatisée des résultats. Pour l'instant, le "déchiffrage" des mesures d'expérience prend trop de temps.

2. Caractériser la dépendance entre le taux d'occupation et la fréquence

J'ai été amené à faire une micro-étude pour calculer l'évolution de la fréquence de contact en fonction du taux d'occupation avec un modèle très simple.

J’utilise un modèle grossier, issu d’une modélisation d’ordonnancement de file d’attente avec des blocs temporels de longueur d. Pour simplifier si x est le taux d’occupation (entre 0 et 1), et y = (1 – x), le temps qu’il faut pour placer un nouveau bloc acceptable pour k participants est d ×(1 – y^k)/(y^k). Cette formule (approchée) s’obtient facilement par récurrence (considérer deux cas : le créneau suivant est libre pour les k, ou on passe au créneau suivant, en supposant l’indépendance de chaque créneau horaire).

Voici le type de courbe que l'on obtient :















Notons que cette formule est cohérente avec ce que j'avais proposé il y a six mois mais représente une première amélioration.


3. L'importance de la structure des "small worlds"

Suite aux recherches effectuées en 1967 par le psychologue social Stanley Milgram, différents chercheurs se sont penchés sur l’hypothèse des « six degrés de séparation », qui stipule que nous sommes tous en contact avec n’importe quel individu de la planète, en utilisant une chaîne de « connaissances » de moins de 6 maillons (où chacun connaît le suivant). Parmi ces chercheurs, Duncan Watts et Steve Strogatz ont caractérisé la notion de « small worlds », qui est un des concepts les plus importants dans l’analyse des réseaux sociaux (cf. plus loin). Voir à ce sujet le livre de D. Watts : « Six Degrees : The Science of a connected age ». Si le réseau social était aléatoire, en supposant que nous connaissons tous 100 personnes, les six degrés de séparation seraient une simple conséquence du fait que 10^12 est plus grand que le nombre d’habitants de la planète. Mais c’est évidemment loin d’être le cas (il y a beaucoup de doublons dans mes amis et les amis de mes amis). La structure de petit monde se produit lorsque le regroupement naturel des «amis » en « tribus » est compensé par quelques connexions qui font que le diamètre est proportionnel au logarithme de la taille du monde.

Le sujet des « degrés de séparations » est un sujet passionnant. Comme nous l’avons remarqué dans une note précédente, le calcul de la latence du "système réunion" est une variante plus sophistiquée du calcul du degré de séparation, mais on y retrouve tous les concepts importants. Par exemple, l’analyse des réseaux sociaux fait émerger l’importance des acteurs « fortement connectés ». On va retrouver le même rôle dans l’analyse du système réunion, qui peut être joué par un manager ou un chef de projet (cf. , en particulier, « The Tipping Point » de Malcom Gladwel). Le rôle a été formalisé avec la notion de degré d’intermédiarité, due à Linton Freeman. Freeman est l’inventeur du concept de centralité, qui peut précisément être étendu à des graphes valués, donc à des calculs de temps de latence. Lire, sur ce sujet, « Centrality in valued graph : A measure of betweenness based on network flow », in Social Networks, vol. 13, 1991.

Commençons par faire deux hypothèses fortes :

  1. la fréquence de contact est uniforme,
  2. le graphe réunionnel vérifie l’hypothèse des « petits mondes », puisqu’il s’agit d’un réseau social, et que les réseaux sociaux vérifient cette hypothèse le plus souvent (nous reviendrons sur ce point).

Dans ce cas, le degré de séparation est log(Di/Dr), et la latence est :log(Di/Dr) / f = log(Di/Dr) x Dr / T. Nous retrouvons ici la formule que j'avais proposé il y a 6 mois.
Autrement dit, dans ce cas de figure, il faut choisir une petite valeur de Dr pour favoriser la latence, c’est-à-dire favoriser les petits groupes de personnes qui se voient souvent.
Si nous relâchons la première hypothèse et supposons, toujours pour simplifier, qu’il existe trois classes de fréquence (comme ce qui est indiqué sur la figure), le calcul de la latence revient à minimiser la longueur des chemins dans le graphe étiqueté associé au système réunion. Sans rentrer dans le détail des calculs, on s’aperçoit qu’il vaut mieux choisir des chemins qui utilisent des arêtes de fréquence faible.

Je reviendrai sur ce sujet dans des prochains messages, il mérite un plus ample développement. Aujourd'hui je retiens deux idées:

  1. La structure des petits mondes est essentielle pour caractériser la latence
  2. Il y a un compromis latence/fidélité qui mérite d'être étudié de plus près

En effet, la multiplication des étapes intermédiaires dans la propagation réduit la fidélité. Un système réunion qui reposerait uniquement sur des petits groupes fortement connectés n’est donc pas optimal. Ceci nous conduit à postuler que doivent coexister, à l’intérieur du diamètre réunionnel, des liens à fréquence élevée pour un petit diamètre, et des liens à basse fréquence qui permettent justement d’étendre ce diamètre. Cette approche permet, de plus, de favoriser l’émergence de la structure de « petit monde ». En effet, les expériences de D. Watts montrent qu’on construit cette structure précisément en ajoutant quelques liens « aléatoires » sur une structure de connexion régulière. Notons par ailleurs que l’inverse d’une structure de « petit monde » est, dans le cas qui nous intéresse, ce que l’on appelle une organisation en « silos », c’est-à-dire un graphe avec des structures fortement connectées mais trop peu reliées les unes aux autres.

4. L'importance de la "bandwidth" et le domaine de recherche CMC

La modélisation de la fidélité en vue de la simulation est complexe. On peut introduire une probabilité de perte d’information, ou, ce qui est plus réaliste, un taux de réémission : un canal peu fidèle va nécessiter l’émission de plusieurs messages pour faire passer la même information. On est de toute façon très loin de la réalité de la différence entre les canaux selon que l’intonation de la voix, la posture corporelle, l’expression du visage est disponible pour le récepteur ou non.

L’étude des communications électroniques est devenu un champ important de la sociologie et la psychologie appliquée (CMC : Computer Mediated Communication). A titre d’introduction, on peut lire « Developing Personal and Emotional Relationships via Computer-Mediated Communication » de B. Chenault dans CMC Magazine, May 1998 (disponible en ligne: www.december.com/cmc/mag).

Par exemple, le concept de bandwidth est au coeur de cette idée de fidélité.
On peut lire « Beyond Bandwidth : Dimensions of Connection in Interpersonal Communication » de B. Nardi, in Computer Supported Cooperative Work (2005), vol. 14, Springer. La notion de bandwith recouvre à la fois la capacité à transmettre l’information mais aussi le feedback, qu’il s’agisse d’une forme explicite (une conversation, pourvu que la latence soit suffisamment faible) ou implicite (transmission des signaux faibles liés aux postures corporelles, aux expressions faciales, etc.). Cet article passionnant s’intéresse aux trois aspects relationnels de la communication : l’affinité, l’engagement et l’attention, pour en déduire des recommandations sur l’usage des technologies comme support de communication, et pour insister sur l’importance de la communication « corporelle ».

La conclusion de cet été est que j'ai un gros travail de bibliographie devant moi ! Amis lecteurs, faites moi part de vos suggestions en terme de CMC !

A bientot,

-- Yves

lundi, juin 26, 2006

Bonnes vacances à tous ...

Un petit message pour terminer l'année scolaire ... avant de me "retirer" pour quelques mois pendant que j'écris mon prochain livre. Ce mail fait suite à une présentation faite au e-Lab, dont j'ai extrait les deux slides jointes.


La première slide montre le type de résultats que l'on obtient sur l'analyse simple des leviers stratégiques. Les résultats sont en k€, correspondant à la valeur produite par l'exécution des processus. Je reviendrai sur le type de données produite par la simulation lorsque j'aurais des résultats plus stables.







Ce qu'on peut retenir de ces premiers résultats:
  1. les leviers stratégiques ont un effet significatif sur la transmission d'information qui se voit sur les résultats économiques,
  2. l'optimisation est pertinente: il existe des optimum locaux
  3. Il reste du travail à faire pour produire des résultats convaincant d'un point de vue statistique !

Sur ce dernier point, j'évalue à un facteur mille l'augmentation de temps de calcul pour produire des expérimentations vraiment satisfaisante (cf. le message précédent)

En revanche, l'expérimentation avec les scénarios (ce qui permet de faire varier la charge de travail fournie à l'entreprise) produit des résultats logiques (plus il y a de charge, plus on crée de valeur), ce qui est une indication que le simulation est cohérente.



Il a fallu de gros efforts pour arriver là ! Un modèle un peu trop naïf d'ordonnancement produit facilement des résultats contre-intuitifs. En fait, la raison principale de la complexification du modèle SIFOA est la volonté d'obtenir un fonctionnement robuste de l'entreprise, qui repose sur une bonne réactivité et optimisation de l'allocation des ressources (agents & canaux).


Pour terminer ce message, je me suis amusé à simuler "un monde sans e-mail".
Ce type d’approche permet de donner une valeur (monétaire) au service de e-mail dans l’entreprise !
Dans cette première simulation, j'ai observé ce qui se passe si le canal email est remplacé par le courrier interne (essentiellement une augmentation de la latence):
  • on observe 10% de baisse du revenu, ce qui est significatif (2045 vs 2277)
  • Le canal ASYNC passe de 17% à 12%
  • Augmentation répartie des autres canaux

Ce type de simulation est très encourageant. Nous avons une façon de trancher le débat entre les deux positions excessives que l'on entend souvent ("Le mail ne sert à rien d'un point de vue économique" ou "sans email aujourd'hui, l'entreprise s'arrête"). Notons que ce peut être les mêmes qui tiennent les deux sortes de propos, lorsqu'il faut payer la maintenance des serveurs dans le premier cas et lorsqu'il y a un virus dans le seconde cas :) La prochaine étape sera de simuler l'introduction du canal "instant messenging".

A suivre donc, avec une reprise à la fin de l'année.

vendredi, juin 02, 2006

SIFOA 2006 : un point d’avancement

Le dernier message ayant plongé dans vision détaillée et technique de sujets pointus, je vais essayer de reprendre de la hauteur et de faire le point. Pour ce faire, j’ai écrit une synthèse de ce qui a été fait et je l’ai installée sur mon site . Cela permet une lecture plus facile que le « dépilement » des messages de ce blog. J’ai aussi installé un lien permanent sur le blog (« Synthèse »), puisque le fait d’écrire une synthèse m’a permis de corriger quelques erreurs et de préciser certains points (c’est donc un document utile même pour ceux qui ont suivi depuis le début).

SIFOA 2006 : de quoi s’agit-t-il ?

Le blog a été ouvert en tant que « blog-note » pour décrire, expliquer et discuter d’un projet de simulation et d’étude : SIFOA. Ce projet est né il y a trois ans, en 2004, et il est ambitieux à plusieurs titres. D’une part, je ne suis pas un expert des sujets tels que la théorie de la communication ou l’organisation des entreprises. J’ai commencé d’entreprendre mon éducation en 2004, et je suis preneur de tout commentaire, suggestion et proposition pour enrichir ma culture. D’autre part, il s’agit d’un sujet « risqué », puisque rien de garantit l’existence d’un modèle tractable et pertinent. Autrement dit, rien ne permet de penser que les couches successives de simplification nécessaires pour produire un modèle qui soit, d’une part, implémentable sur un ordinateur, et d’autre part analysable suivant un nombre raisonablement limité de dimensions, ne finissent pas par décorréler les résultats de la simulation de toute réalité. Pour finir, il s’agit d’un effort sur une très longue durée, probablement une dizaine d’année.

Le premier volet, SIFOA 2006, consiste à créer un outil de simulation. La première utilisation de l’outil est purement expérimentale, pour se forger une conviction. L’objectif des expériences qui sont réalisées en 2006 est simplement de stimuler la réflexion et de lancer des débats. En particulier, je caresse l’espoir que certaines des propriétés exhibées par le simulateur puisse être expliquée de façon directe, avec des raisonnement simple et sans avoir recours à l’artifice de la simulation.

L’étape suivante, consistant à développer des méthodes d’analyse pour exploiter et donner du sens aux résultats de ces simulations, sera l’objet du plan de travail 2007 :
  • impact des leviers les un sur les autres
  • espace de phase des environment par rapport aux leviers


Comme cela a été dit maintes fois, en particulier dans les messages sur la simulation par « Jeux & Apprentissage », c’est un sujet complexe, qui demande du temps.


Quelques nouvelles du front

Le simulateur représente approximativement 2000 lignes de CLAIRE, soit approximativement 8000 lignes de C++. Avec le recul des deux dernier mois, je suis surpris par la difficulté rencontrée à réaliser un simulateur stable et réaliste.

  1. réaliste : comme les messages précédents l’atteste, ce simulateur est plus complexe que prévu. La structure du programme (simulation à événement discrets, génération de processus, apprentissage) s’appuie sur des expériences précédentes. En revanche, la modélisation des tâches et les méthodes d’ordonnancement sont plus complexes et subtiles que ce à quoi je m’attendais.
  2. stable (et efficace) : pour traiter plusieurs milliards d’événements, il faut une programmation « un peu sérieuse » avec des structures de données optimisée et un soin (classique) porté à la gestion de la mémoire. La mise au point m’a pris quelques soirées et dimanches pour tracer et débugger, ce qui m’a fait rajeunir :)

A l’heure où j’écris ces lignes, le programme de simulation tourne depuis plus d’une semaine. Chaque fichier script contient entre 10 et 20 expériences à réaliser, et utilise le PC (moderne, bi-pro et 3.2 Ghz) en continu pendant plusieurs jours. En effet :
une itération de simulation consiste à simuler une année d’activité et à ordonnancer 25 000 tâches. Après optimisation, cela prend de 1 à 2 secondes.
une itération d’apprentissage nécessite, pour l’instant, 1000 simulations, soit 25 millions de tâches à ordonnancer
une expérience repose, pour l’instant, sur 10 instantiations Monte-Carlo (chiffre qui devra être porté à 100 par la suite). Faite le calcul, il faut plusieurs heures …

On voit qu’il s’agit d’expériences qui sont très consommatrices en temps de calcul.
Les premieres expériences servent à évaluer les influences des leviers et des scénarios. Il s’agit donc simplement de faire varier les paramètres et de remarquer les impacts (significatifs d’un point de vue statistique) de ces changements. Les statistiques produites par chaque expérience fournissent :

  • le revenu créé, sa répartition par processus et l’efficacité associée (quel pourcentage de la valeur théorique maximale a été obtenu)
  • L’utilisation des agents (U et H)
  • L’utilisation des canaux

Je posterai un message de résultats en Juin, et après je disparaitrai jusqu’en Octobre pour rédiger mon prochain bouquin.

samedi, mai 06, 2006

Modélisation des canaux : débits et latences dans la propagation des flux


Avertissement : ce message « rentre dans le vif du sujet ». Ames sensibles, s’abstenir …

1. Erratum

Je vais aujourd’hui enrichir le modèle de flux d’information dans l’entreprise, en introduisant la notion de latence, ce qui correspond à une correction du message précédent.
Le point de départ qui justifie cette volte-face est le « théorème du modèle SIFOA » : Le modèle décrit un fonctionnement optimal : les bonnes réunions, les bons participants, la bonne priorisation des sujets, etc.
C’est la seule approche convaincante, car pour tenir compte des imperfections de chaque entreprise, il faudrait rentrer dans un niveau de détail épouvantable, et sans la moindre chance de pouvoir instancier le modèle avec des données validées.
La conséquence de ce « théorème » est que seules les contrainte de temps jouent (en terme de débit), comme nous l’avons expliqué précédemment. C’est malheureusement une hypothèse trop stricte, qui ne permet pas de faire apparaître les subtilités de l’utilisation des canaux. Comme la réunion maximise le transfert par mutualisation, la solution « optimale » est d’utiliser ce canal de façon quasi-complète. Ce n’est pas réaliste car l’utilisation d’un calendrier industriel de réunion pour traiter l’ensemble des transferts liés au management est inefficace en terme de flexibilité et de temps de propagation des informations prioritaires.
En conséquence, nous allons proposer, dans ce message, un raffinement de la modélisation des canaux de communication, qui permettra d’introduire la latence.


2. Caractérisation des canaux

Nous caractérisons les quatre canaux de communication avec quatre paramètres, les trois que nous avons déjà présenté et que nous allons reprendre ; plus un quatrième qui représente la fréquence d’accès au canal :

  • Le taux de répétition (R): nombre moyen de fois ou le message a besoin d’être émis pour être efficace. Cette idée élégante est due à Thierry Benoit : plutôt que de représenter une notion de perte d’information, ce qui est complexe, nous utilisons une caractérisation macroscopique qui précise combien de fois il faut répéter le message pour que l’information soit réellement transmise. Dans un premier temps, nous allons ignorer ce paramètre (et travailler dans un monde idéal ou « tout le monde comprends tout du premier coup ») mais, ensuite, nous pourrons étudier la sensibilité du modèle à cette dimension. Aujourd’hui, le « taux de répétition » est une grandeur que certains managers savent caractériser de façon intuitive (en fonction du type de message), mais il serait envisageable de le mesurer (par exemple sur les mails) et d’en faire un indicateur d’efficacité (par exemple, un sujet qui génère des dizaines de cascades de mails aurait-il été mieux traité en direct ?).
  • Mutualisation (M): le nombre de récepteurs moyen d’un message. Cela permet de représenter la mutualisation obtenue en réunion ou avec l’envoi d’un email. Contrairement au paramètre suivant, on parle ici des récepteurs « utiles » qui sont réellement concernés par le transfert d’information.
  • Utilisation (U): le nombre de personnes occupées durant l’échange d’information, y compris les personnes qui ne sont pas concernées de façon utile (participants qui s’ennuient en réunion, destinataires inutiles en cc d’un email, etc.). Ce paramètre est facile à mesurer de façon statistique (nombre de participants moyens dans les réunions planifiées, nombre de destinataires dans les mails.
  • Fréquence (F) : ce dernier paramètre représente la fréquence « de base » de l’accès au canal. Par exemple, une collaborateur a, en moyenne, quatre réunions planifiée par jour, il lit ses messages deux fois par jours (fréquence de 5 heures), etc. Ces valeurs sont très dépendantes de la culture d’entreprise (est-ce qu’on sort d’une réunion pour prendre un coup de fil ?) mais elles sont raisonnablement stables et faciles à estimer.

Nous pouvons en déduire les règles d’ordonnancement de « charge de communication en fonction du canal ». Cela signifie que nous attribuons, en fonction du canal, une durée et un nombre d’agents à une tache de communication définie par une charge théorique (L, en heure), de la façon suivante :

  • [1] si le canal est le canal mail (ASYNC), la durée D vaut L * R / M, tandis que le nombre d’agent vaut *alpha* + *beta* x U. Nous utilisons deux constantes : *alpha* est le rapport de vitesse d’écriture sur celui de l’élocution (combien de temps faut il pour écrire un mail par rapport au temps pour le dire) et *beta* est le rapport de la vitesse de lecture sur celui de l’écoute. Pour faire simple, on écrit (lorsqu’on le fait en continu devant un terminal, lorsqu’on écrit un mail) 5 fois plus lentement qu’on ne parle, mais on lit 10 fois plus vite (resp. 30, 150 et 300 mots à la minute). C’est une simplification, il existe une littérature passionnante et abondante sur le sujet. Pour un résumé et une bibliographie, voir : http://www.keller.com/articles/readingspeed.html
  • [2] si le canal est synchrone, la durée est égale à la charge et nombre de participants est deux.
  • [3] si le canal est le canal de réunion, D = L * R / M et le nombre d’agents est U.
  • [4] si le canal est HF2F (le canal hiérarchique), nous utilisons la profondeur de la hiérarchie (P) comme approximation de la longueur de la chaîne de points « face à face » qui doivent avoir lieu pour transporter l’information d’un point à une autres. C’est d’ailleurs sur cette hypothèse que les partisans des organisations plates s’appuie : une organisation plus plate signifie une redescente/remontée d’information plus rapide. Le nombre d’agents est de P + 1, et la durée de communication est P * L.

Cette caractérisation est suffisante pour traiter, dans notre modèle, les flux de communication comme des tâches à ordonnancer.


3. Modèle pour la latence

Nous arrivons maintenant à la question cruciale de la modélisation de la latence. Commençons par caractériser ce la latence signifie dans notre modèle macroscopique du fonctionnement de l’entreprise. Le déroulement des processus (enchaînement de tâches) produit des transfert de flux d’information (monitoring, feedback, synchronisation, etc.). Comme notre modèle d’ordonnancement traite ces flux en bloc, on ne peut pas utiliser de dépendance entre des blocs. Par exemple, si la coordination d’une activité de 100 homme.jour nécessite 50 heures de réunion, nous allons placer un bloc de 50h. La latence est le temps qu’il faut pour transmettre une information d’une unité au management (ou à une autre unité) au travers de ce canal (réunion). La modélisation par bloc est suffisante pour raisonner sur les quantités totales, mais pas sur la propagation. La réalité de ce qui est représenté dans le modèle par deux blocs consécutifs peut être un entrelacement de réunions. Pour que le modèle d’ordonnancement puisse servir à calculer la latence, il faudrait un niveau de précision beaucoup plus grand, et on retomberait sur un modèle « intractable » (en franglais).


Voici, en conséquence, les modèles que j’ai retenus :

  • [1] si le canal est ASYNC, la latence est 1/F x N. F est la fréquence, N est le nombre de sujets moyen dans l’agenda des agents impliqués. Le principe est de faire le produit de la latence « à vide » (si l’agent est disponible) par un facteur qui indique la probabilité d’être disponible pour le sujet concerné. C’est la que nous pouvons utiliser les informations produites par l’ordonnancement. Puisque les blocs sont triés par priorités, nous pouvons compter le nombre de sujets plus importants et l’utiliser comme facteur multiplicateur (N). De la sorte, si le flux est prioritaire, on supposera que la première « pause email » est la « bonne », tandis que si il est le troisième dans l’ordre d’importance, on supposera qu’il faut attendre trois séances de lecture de mail pour traiter le sujet.
  • [2] si le canal est SYNC, la latence est 1/F x (N1 + N2 – 1). Le doublement de l’effet du taux d’occupation est lié au fait qu’il faut que les deux agents soient disponibles au même moment pour pouvoir communiquer. C’est également une approximation optimiste par rapport à un modèle probabiliste qui ferait un produit de disponibilité.
  • [3] si le canal est MEET, il nous faut estimer deux choses: la latence pour trouver la réunion “adaptée”, soit 1/F * N, et le nombre de reunions à monter pour transmettre l’information d’un point à un autre. Nous avons besoin, pour cela, d’introduire un autre paramètre qui décrit la culture de réunion d’une entreprise, que nous avons appelé « diamètre réunionel » (DR) est qui est le nombre de personnes rencontrée (total) dans les réunions programmée d’une personne. DR est fonction du nombre de réunion, de la taille des réunions et du fait que les réunions ait lieu « toujours avec les mêmes » ou au contraire « couvre une grande partie de l’entreprise ». Le degré de connection (dans le graphe des participation aux réunions) est le nombre de réunions nécessaires pour faire passer l’information est estimé par log(#Agents)/log(DR). Par ailleurs, en première approximation, (DR / U) représente le nombre de réunions différentes d’un agent. Il faut donc attendre (DR / U) réunions en moyenne pour trouver « la bonne » pendant la quelle l’information est passée à une autre personne qui va relayée à la réunion suivante et ainsi de suite … Le nombre de relais est la degré de connexion dont nous venons de parler.
    Ceci nous donne la formule de la latence pour les réunions : 1/F * log(#Agents)/log(DR) * (DR / U)
    Le fait que ce temps est indépendant du taux d’occupation des agents est bien sur une simplification, qui suppose que le principe des réunions programmées avec un ordre du jour et un thème est respecté.
  • [4] enfin, si le canal est H, nous comptons simplement le nombre de points hiérarchiques nécessaires, comme dans la section précédente et obtenons 1/F * P.


La deuxième question sur la modélisation de la latence est son impact sur la performance. Dans le modèle de fonctionnement de l’entreprise que nous avons commencé à décrire, il y a deux aspects qui sont sensibles au temps de propagation :

  1. Nous créons des événements aléatoires de changement de valeur associée à un processus. Ce changement entraîne une ré-évaluation de la priorité, qui modifie l’ordre de traitement. Nous utilisons la latence du canal de management du processus pour représenter le délai de réaction. Plus ce délai est court, plus la réaction de l’entreprise est optimale.
  2. La durée réelle d’exécution des tâches qui composent le processus est, de façon aléatoire, perturbée par rapport au « plan type » que représente le modèle de processus. Ici aussi, cette modification est traitée comme un ajout/retrait de quantité de travail à ordonnancer et nous utilisons la latence du canal de communication pour représenter le délai de réaction.


Cette modélisation est conforme avec le parti-pris de représentation d’un fonctionnement idéal : nous sous-estimons grandement les effets du délai de propagation de l’information, mais au mois ce que nous prenons en compte « fait sens ».

4. Réflexions futures

Il y a de nombreuses pistes à explorer, qui ont trait à la modélisation et la caractérisation des flux d’information, et cela va bien au delà du modèle que je suis en train de construire. Ce qui suit est une liste de sujets en attente, pour provoquer la curiosité du lecteur.

  • La caractérisation des temps de production, de transfert et d’assimilation de l’information permette d’étudier des caractéristiques des réunions optimales. Par exemple, faut-il mieux une réunion à 20 participants dont 10 écoutent, ou deux réunions à 10, dont une est une réunion d’information fondée sur le compte-rendu de la première ?
  • On peut également utiliser les caractérisations lecture/écriture/écoute pour enrichir notre modèle avec des canaux synchrones textuels (instant messaging) et asynchrone vocal (dépose d’un message). La dépose de message vers un ou plusieurs interlocuteurs est une pratique courante et institutionnelle dans certaines entreprises (par exemple, Cisco).
  • La notion de diamètre « réunionel » (paramètre DR) évoque un problème d’optimisation semblable à l’optimisation de la profondeur des hiérarchies. Si DR est grand, chaque individu est très « connecté », mais passe moins de temps avec ses interlocuteurs. Ceci favorise la rapidité de la propagation du signal, mais pas forcément la qualité de transmission. A l’inverse, si DR est petit, cela signifie que les relations avec les interlocuteurs courant sont plus approfondies, mais que la chaîne de propagation peut être longue. Nous avons les bases d’une discipline à développer, celle de la mesure de l’efficacité et de la pertinence du « système réunion » d’une entreprise, ce que nous appelons à Bouygues Telecom «l’agenda industriel ».
  • Enfin, un sujet qui reste encore complètement ouvert, à mon sens, est la rationalisation de l’usage de l’écrit versus celui de l’oral dans l’entreprise. Sans oublier la forme hybride, le Powerpoint ! Bien sûr, on pense aux travaux fondateurs de E. R Tufte (par exemple, « the cognitive style of Powerpoint »), mais le sujet qui m’intéresse le suivant : peut-on déduire des règles d’efficacité de l’emploi de l’écrit à partir des études précédemment citées ? Peut-on ensuite trouver des métriques qui valident ou invalident ces règles ? A titre d’illustration, on peut déduire des chiffres précédents qu’il vaut mieux attendre d’avoir un point programmé pour traiter un sujet non-urgent qui n’intéresse que les deux personnes, plutôt que d’envoyer un mail (du point de vue de l’efficacité temporelle du transfert d’information), puisque (5 + ½) > (1 + 1).

Beaucoup de sujets de réflexion, il est temps d’arrêter :-)






dimanche, avril 09, 2006

Modélisation des flux d’information associés aux processus



1. Vision générale

L’objectif final est d’exhiber une structure, que nous pourrions appeler diamètre organisationnel ou graphe de transfert, qui est une abstraction de l’organisation de l’entreprise qui représente sa capacité à transférer de l’information, du point de vue du débit, du temps de propagation (latence) et de la fidélité.
Il s’agit ensuite de pouvoir la caractériser en fonction des choix d’organisation de l’entreprise et de préciser son impact sur le fonctionnement de l’entreprise. Cette vision correspond au postulat suivant : dans la société de la connaissance, le rôle principal de l’organisation est de favoriser le transfert de l’information.
Cet objectif est très général et très ambitieux. La première étape, que nous avons commencé à développer dans les messages précédents, est de modéliser la dimension temporelle, c’est-à-dire le temps qu’il faut pour transférer l’information.
Mon objectif en 2006 est de réaliser une première version du modèle, qui s’appuie sur la méthode «simulation par jeux et apprentissage » pour essayer de faire apparaître des propriétés de ce modèle, en particulier en ce qui effets combinés des 5 leviers d’organisation que nous avons évoqué précédemment.


2. Simplifications associées à la version 1 du modèle

Les simplifications majeures sont de deux types :

  1. Les ressources sont séparées en deux catégories, U pour les agents qui effectuent des activités et H pour les agents qui participent au management et au transfert d’information. Cela signifie que nous avons « virtualisée » l’activité de management et pilotage de chaque unité, et l’avons rattaché à l’entité globale de management. Ce regroupement évite de se poser des questions d’allocation de ressource de management, il représente une abstraction idéale du fonctionnement et rend la simulation plus simple.
  2. Le cœur du modèle est un ordonnanceur de blocs de temps, en fonction de priorités. Comme nous raisonnons de façon macroscopique, il n’est pas possible de modéliser des chaînes de propagation. Si un bloc représente un ensemble de réunions, nous ne savons pas « à quel moment la décision de réallouer des ressource va être prise ». En ne représentant pas dans le modèle des éléments qui dépendent du temps de propagation, nous faisons également une simplification qui est une idéalisation du fonctionnement de l’entreprise.


Dans les deux cas, il m’aura fallu un peu de temps pour me convaincre qu’il était plus raisonnable de faire abstraction des deux dimensions que j’avais du mal à formaliser de façon simple, plutôt que de faire des demi-mesures. Il sera toujours possible, dans une deuxième version, de revenir sur ces limitations et de proposer des modèles plus riches.
Pourquoi ne pas faire, plutôt que de faire simplement ? C’est parce que l’abstraction du pilotage de l’enterprise doit être au moins aussi efficace que son fonctionnement réel ! Les deux règles de simplifications font que je représente une entreprise idéale dans les deux dimensions de l’allocation des ressources de pilotage et de management, et dans la priorisation de ses décisions à l’intérieur de ses activités de pilotage. Si je commence à rentrer dans le détail, il faut que le modèle soit pertinent, sinon les conclusions seront invalidées.


3. Typologie des flux et canaux

Nous avions une typologie simple en terme de flux que nous pouvons encore simplifier puisque n’avons pas besoin d’associer des actions à la réalisation de l’ensemble des types de flux. Nous obtenons le deux catégories suivantes :
- Monitoring & Feedback :
- Transfert & synchronisation :

Puisque l’exécution d’un flux est abstrait au point de ne représenter qu’une charge temporelle à placer sur l’ordonnanceur, cela nous permet de caractériser les canaux avec trois paramètres :

  1. le taux de répétition : nombre moyen de fois ou le message a besoin d’être émis pour être efficace. Ce paramètre est notre approche dans cette version pour représenter la notion de fidélité d’un canal.
  2. Mutualisation : le nombre de récepteurs moyen d’un message. Cela permet de représenter la mutualisation obtenue en réunion ou avec l’envoi d’un email.
  3. utilisation: le nombre de personnes occupées durant l’échange d’information, y compris les personnes qui sont pas concernées de façon utile (participants qui s’ennuient en réunion, destinataires inutiles en cc d’un email, etc.)

Par exemple, voici un tableau qui peut représenter un des scénarios à tester en terme d’efficacité des canaux (à titre d’illustration) :

  • SYNCH: taux répétition:1, mutualisation: 1, utilisation: 1
  • ASYNCH: taux répétition:1 à 2, mutualisation: 1 à 3, utilisation: 1 à 10
  • MEET: taux répétition:1 à 1.5, mutualisation: 1 à 5, utilisation: 3 à 10
  • HIER: taux répétition:1, mutualisation: 1, utilisation: D = profondeur


4. A suivre

Cette simplification a un intérêt : on limite fortement le nombre de paramètres inconnus qu’il faudra tester par instantiation Monte-Carlo. Non seulement on simplifie l’implémentation, mais on obtient un modèle qui est plus convaincant, puisque nous reposons sur un nombre plus faible de « paramètres tirés du chapeau ».
La vraie question est maintenant : avec un fonctionnement aussi idéalisé, pouvons nous constater encore les effets des leviers d’organisation ?
Les « leviers » ont encore un impact sur ce modèle. Par exemple :
(1) la profondeur de la hiérarchie joue sur l’utilisation du canal hiérarchique
(2) la répartition matricielle (horizontale/verticale) est représentée par l’allocation du temps entre MEET et HIER dans les ressources de H
La réponse dans deux mois …lorsque le simulateur sera opérationnel !

dimanche, mars 19, 2006

Bibiographie (2e partie)

Je continue ma petite chronique bibliographique, au travers du prisme de ce blog. Voici cinq autres livres qui sont pertinents pour ce sujet.


(1) H. Amblard, P. Bernoux, G. Herreros, Y-F. Livian, Les nouvelles approches sociologiques des organisations, Editions du Seuil, 2005
Un livre qui permet de faire le point sur les approches sociologiques et les différentes écoles de pensées. Un peu difficile pour un novice, mais le chapitre 3 est passionnant et parfaitement pertinent pour l’étude des flux puisqu’il porte sur les réseaux, au travers de la « sociologie de la traduction ».

  • Le premier chapitre présente l’analyse de Mintzberg sur le rôle de l’organisation et de la structure (lire p. 22 à 32)
  • 3e chapitre particulièrement intéressant dans le contexte des réseaux scientifiques.
  • Le dernier chapitre (nouvelle édition) contient des réflexions intéressantes sur le rôle du consultant (p. 266).


(2) C. Morel, Les décisions absurdes. Folio essais, Gallimard, 2002.Un livre absolument délicieux, à recommander sans réserve. Sur notre sujet, le chapitre 7 (les pièges de la coordination) est une référence. On y trouve des remarques sur :
· les tours de tables
· le temps passé en réunion
· la distinction entre coordination et information


(3) E. Lawler, From the ground up : six principles for building the new logic corporation. Jossey-Bass, 1996Un grand classique de l’organisation des entreprises, très souvent cité et à juste titre de mon point de vue.
  • Les chapitres 4,5 et 6 forment une référence sur la structure des organisations.
  • Le premier chapitre introduit des idées clés sur l’organisation par processus et l’évolution de l’organisation hiérarchique.
  • Le chapitre 6 illustre le débat specialisation/généraliste.

(4) M. Gladwell, The Tipping Point, Abacus, 2000.Je considère les livres de Malcom Gladwell parmi les meilleurs que j’ai jamais lus. En particulier, je recommande « Blink » qui est absolument génial. Je cite « the Tipping Point » dans cette liste car il contient, dans son chapitre deux, une réflexion sur les flux d’information et sur ce qui rend le transfert efficace. Cet effort de modélisation est original et pertinent pour le sujet de l’efficacité du transfert de l’information dans l’entreprise.

(5) J. Miller, Game Theory at Work, Mc Graw-Hill, 2003
Une reference qui est un peu ésotérique dans cette liste, mais c’est un excellent livre, facile à lire, et qui introduit les concepts clés, comme celui d’équilibre de Nash (que j’ai utilise de façon libre dans un message précédent).

samedi, mars 11, 2006

Un modèle de fonctionnement de l’entreprise centré sur les flux d’information

Dans ce message, je vais décrire un modèle de fonctionnement central à ma réflexion sur les flux d’information et l’impact de l’organisation sur ces flux. De quoi s’agit-il et pourquoi est-ce important ?
Le modèle que je propose est un modèle générique d’entreprise centré sur les processus. Il s’agit d’une abstraction du fonctionnement de l’entreprise, qui fait apparaître les flux d’information entre les acteurs et qui explicite le couplage (action <-> information), c’est-à-dire quels flux sont produits par quelles actions et comment l’efficacité du transfert d’information influe sur le résultat des actions.
Ce modèle générique repose sur des paramètres internes que nous ne connaissons pas (coût du travail, impact de la compétence sur la productivité, efficacité des canaux de communication, etc.), c’est pour cela que nous avons développé l’approche « Simulation par Jeux & Apprentissage » présentée dans les messages précédents. Nous y reviendrons un autre jour, pour l’instant, mon objectif est d’expliquer le modèle.
Le modèle de fonctionnement des processus est le socle de ma démarche : si ce modèle ne vous convainc pas, rien de ce qui va suivre n’a le moindre intérêt. Il sert à formuler les interactions entre les différents « leviers » sur l’organisation de l’entreprise. C’est donc un exercice délicat en terme d’équilibre :
  • si le modèle est trop complexe, personne n’y comprendra rien et le château de cartes s’écroule,
  • si le modèle est trop simple, il ne traduira pas les interactions organisation / flux / processus.

La structure du modèle (modéliser une entreprise par ses processus) est classique et repose, par exemple, sur les livres dont j’ai cité une partie précédemment. Ce qui est plus original, c’est la modélisation quantifiée des flux d’information associés et des interactions. La question qu’il faudra se poser à la fin du message est : « si nous connaissions les paramètres, ce modèle pourrait-il décrire le fonctionnement d’une entreprise ? »


1. Modélisation de l’Entreprise

Nous allons représenter une entreprise par un ensemble d’agents, et abstraire l’organisation interne en deux catégories, U et H. L’ensemble des agents H représente la structure de management, qui pilote un certain nombre d’unités U. Il ne s'agit pas d'une séparation supervision production, tous les agents sont des "acteurs de la société de la connaissance" et ont pour fonction le transfert, l'enrichissement et le routage de l'information. Disons simplement que les acteurs U participent directement aux processus (ce qui inclus de la coordination) et que les acteurs H effectuent uniquement des tâches de coordination.

L’organisation de management H est définie par une structure pyramidale hiérarchique (un arbre déterminé par sa taille et sa profondeur), qui remplit les fonctions classiques liées au lien manager-collaborateur, et une fonction de collaboration transverse liée aux processus de l’entreprise. La combinaison des deux éléments permet de simuler différents degrés de « matriciel » de l’organisation, en fonction d’un paramètre qui va déterminer la « distribution des prises de décision » selon les deux axes horizontaux et verticaux.

Une organisation U est une collection d’agents, définis par leurs compétences. L’organisation U gère les tâches qui lui sont confiées en fonctions des compétences. Elle s’apparente au méta-processus de planification (au sens d’un planning de Gant) des tâches : qui fait quoi de quand à quand ? La modélisation de la spécialisation de l’entreprise joue sur le nombre d’unités et sur la distribution des compétences.

Un agent partage son temps en trois catégories :

  1. activité (pour un agent de type U) : exécution d’une tâche d’un processus
  2. communication : transfert d’un flux d’information, à un autre agent
  3. autre : planification, réflexion, etc.

Les communications sont réparties selon quatre canaux :

  1. M(eet) : la communication se fait lors d’une réunion planifiée
  2. A(sync) : communication asynchrone, par email, papier, site web, etc.
  3. S(ync) : communication synchrone, par téléphone, IM ou en direct
  4. H(ier): communication en one-to-one selon la « voie hiérarchique »

La répartition entre les catégories est supposée constante, selon des pourcentages qui font partie de la tactique de l’entreprise (voir plus loin). Cette hypothèse sera relaxée dans une version ultérieure du modèle mais il faut commencer de façon simple. La répartition « idéale » en fonction des besoins et de l’efficacité des canaux sera obtenue par apprentissage.

L’efficacité des canaux de communication est obtenue de façon relative par rapport à une transmission lors d’une réunion « face à face » avec deux participants, en considérant le flux d’information transmis et le temps de participation de l’ensemble des acteurs. Nous allons donc utiliser un paramètre qui, d’une certaine façon, décrit le taux d’efficacité moyen d’une réunion (quelles informations retirent les participants d’une réunion ??). Nous faisons l’hypothèse que cette valeur moyenne existe et qu’elle a un sens, pas qu’elle est facile à mesurer !

Comme nous l’avons expliqué dans le message de Février, nous allons étudier les « stratégie organisationnelles » des entreprises selon 5 axes, qui correspondent aux cinq leviers que nous avons identifiés dans un des premiers messages :

  • temps total passé en réunion : pourcentage du temps passé en réunion
  • organisation plate ou profonde : profondeur de l’arbre H
  • degré de redondance ou, au contraire, organisation dimensionnée « au plus juste : nombre d’agents par rapport à la charge de travail théorique-
  • spécialisation des collaborateurs (vs. généralistes) : distribution et nombre de compétences
  • type d’organisation matricielle : répartitions des agents H selon les axes horizontaux et verticaux, et localisation des décisions.


2. Modélisation des processus et flux d’information

Les processus sont modélisés, de façon fort classiques, par des enchaînements de tâches qui produisent de la valeur. Nous nous limitons à des chaînes, compte-tenu de la généralité et du caractère macroscopique du modèle.

Une tâche est simplement définie par la compétence requise, la quantité de travail exprimé en durée, et le nombre minimal et maximal d’agents qui peuvent être affectés à cette tâche. Les compétences de chaque agent sont représentées par des couples (identifiant, niveau), pour modéliser le fait qu’un agent possède un certain niveau pour une compétence donnée.

La valeur produite par le processus est fonction du temps de réalisation, elle est maximale jusqu’à la « deadline », puis décroît linéairement jusqu’à la date d’expiration. On pourrait penser que la réduction du problème d’allocation des ressources de l’entreprise à la planification temporelle est une simplification grossière, mais, pour la même raison de caractère macroscopique, c’est déjà un problème d’allocation complexe (même difficile au sens de la théorie de la complexité) qui suffit faire apparaître les impacts des choix d’organisation. Nous allons supposer que les unités U font le meilleur choix d’allocation de ressource, ce qui est un peu optimiste, pour nous concentrer sur les problèmes de pilotage stratégiques et de transmission d’information.

La simulation du fonctionnement de l’entreprise consiste donc à générer une « charge de processus » et à simuler leurs exécutions en mesurant la valeur produite, qu’il convient de maximiser.

L’exécution d’un processus engendre et nécessite un certain nombre de flux d’information. Le modèle que je propose en distingue quatre :

  1. les flux de transfert, lors du passage d’une tâche à une autre dans le déroulement d’un processus. Ce flux a pour origine les agents de l’unité qui termine la tâche et comme cible les agents de l’unité qui démarre la tâche suivante.
  2. les flux de « feedback » qui permettent à l’unité de signaler l’état de l’avancement ou les incidents (cf. section suivante) à son management
  3. inversement, les flux de « pilotage » ont pour origine le management H et pour cible l’unité U et servent à propager les ajustements en réaction aux évenements (qu’ils soient internes ou externes), de deux types : re-priorisation des tâches ou re-allocation de ressources.
  4. des flux de synchronisation (par exemple, anticipation) entre l’unité qui exécute une tâche et les unites qui ont ou vont exécuter les taches précédentes ou ultérieure. Ce flux est proportionnel à la complexité et la « transversalité » de l’activité de l’entreprise. Il peut ne pas exister pour des processus extrêmement stables et matures, ou au contraire représenter une part importante du temps pour une entreprise jeune.

Les pourcentages de génération de type de flux par processus font partie des paramètres généraux (liés aux scénarios). Ils dépendent, par exemple, du type d’industrie (voire d’entreprise)
- Processus plus ou moins complexes,
- Processus plus ou moins transverses.
Il serait effectivement intéressant de savoir, pour une entreprise donnée, combine une heure d’activité génère d’heures ou minutes de transfert d’information et de synchronisation. Pour l’instant, nous allons traiter ces grandeurs comme des paramètres, mais leur détermination statistique n’est pas hors de portée d’une entreprise moderne.

En revanche, l’utilisation des canaux pour les différents types de flux représente ce que nous avons appelé la « tactique » de l’entreprise, et que nous allons optimiser à l’intérieur de la simulation. Plus précisément, la tactique est l’ensemble des paramètres qui représentent :

  • Le management du temps (allocation par catégorie, cf. plus haut) ,
  • L'utilisation des quatre types de canaux de communication pour les 4 types de flux. Dans notre première version, nous supposons que l’affectation est stable (indépendante de la priorité associée aux flux) et unique.
  • Le management des priorités : comment l’entreprise associe des priorités aux processus et aux tâches. Nous supposons que la priorité est une fonction de la valeur finale, du coût de production et de la probabilité de succès (sous forme d’espérance de résultat). En jouant sur les paramètres, on peut représenter des approches plus ou moins favorables à la prise de risque et des choix heuristiques (favoriser ce qui rapport et qui va bien, ou se concentrer sur ce qui a besoin d’être réparé, …).

3. Modélisation par événements discrets

Il ne nous reste plus qu’à décrire le fonctionnement dynamique du modèle, c’est-à-dire l’exécution des processus. Pour que ce modèle soit un peu réaliste, il faut donc introduire la notion d’aléas.
Il y a en premier lieu les aléas externes, qui concernent la valeur générée par un processus ou la date de sortie attendue. L’information est transmise au pilotage de l’entreprise, qui prend une décision d’adaptation ou de re-priorisation. L’adaptation consiste à essayer d’absorber l’aléa de façon horizontale (dans le temps) ou verticale (augmenter/diminuer les ressources). Le re-priorisation s’effectue simplement en re-calculant la formule de priorité qui tient compte de la valeur théorique et de la probabilité de terminer dans les délais.
Le deuxième type d’aléas est interne, et correspond à une augmentation/diminution de la quantité de travail requise par une tâche. Cet aléas est détecté « sur le terrain » (dans l’unité) et son traitement suit la même procédure.

Le modèle de simulation peut ensuite être décrit comment un « simple » ordonnanceur d’événements « discrets ». Nous n’aborderons pas ce sujet aujourd’hui, la seule dimension qui manque à cette description du modèle pour être complète est la notion de «temps de propagation » de l’information en fonction du canal choisi. Ce sujet est au cœur de la modélisation des flux d’information dans l’entreprise. Nous y reviendrons dans un prochain message.

Il est intéressant de récapituler l’ensemble des paramètres associés au modèle qui forment le scénario d’une expérimentation :

  • Loi de distribution de la charge de l’entreprise : granularité, déviation, etc.
  • Degré d’interdépendance dans l’exécution : quantité de flux de type pilotage et synchronisation par rapport au « temps productif »
  • Facteur de compétence: gains de productivité en fonction du niveau de compétence
  • Efficacité des canaux de communication. Cette efficacité se mesure dans trois dimension : quantité d’information transportée, latence et fidélité du transfert. C’est ce point qui mérite plus de discussion
  • Coût du travail (en % de la valeur produite)

Comme nous l’avons dit en introduction, nous n’allons pas essayer de qualifier ces paramètres, mais plutôt utiliser l’approche « jeux & apprentissage » pour explorer les espaces de scénarios.


4. Peut-il sortir quelque chose de tant d’inconnu ?

A cette étape, il est temps de marquer une pause. Un modèle où la quasi-majorité des paramètres sont inconnus a-t-il un sens et une utilité ? Sur le premier point, c’est au lecteur de se faire une idée … sur le second point, c’est précisément l’intérêt de l’approche présentée dans les messages précédents.
L’ensemble des paramètres décrit un espace, à la fois de types d’entreprises et de types de fonctionnement. En appliquant une simulation qui explore cet espace par instanciation « Monte-Carlo », nous pouvons trouver deux types de choses :

  • des propriétés structurelles qui sont vraies indépendamment des paramètres (par exemple, liée à la non-elasticité du temps),
  • des propriétés qui sont liées à des hypothèses sur les paramètres, et donc sur le type d’entreprise. Cela pourrait permettre de qualifier notre intuition que certaines « recettes de management » sont dépendantes du contexte de l’entreprise et de qualifier cette dépendance

A suivre …

dimanche, mars 05, 2006

Résultats de la « simulation jeux & apprentissage » dans un marché mature

Ce message fait suite à celui de Février sur la simulation par "jeux et apprentissage".


1. Compétition sur un marché grand-public

Nous allons décrire un exemple de simulation par jeux et apprentissage appliqué à un marché grand-public. Rappelons les grandes lignes (cf. le précédent message) :

  1. Nous avons un marché, 3 acteurs qui proposent des produits avec un coût important d’acquisition par client, et une stratégie de fidélisation qui a également un coût par client acquis. Le marché est supposé mature : la plupart des « nouveaux » clients quittent un des joueurs pour en rejoindre un autre, même si il reste une légère croissance organique.
  2. Des équations simples décrivent la façon dont le marché réagit aux offres des acteurs et produisent des parts de marché, des consommations et des taux de churn. Les équations sont simples, les paramètres ne sont pas connus et sont donc évalués avec une approche « Monte-Carlo ».
  3. Chaque joueur réagit aux résultats mensuels du marché selon une « tactique » qui n’est autre qu’une matrice 3 x 3 qui explique comment ajuster les prix, les coûts d’acquisition et le montant de la fidélisation en fonction des scores courants de vente (part de marché), de revenus (chiffre d’affaire) et de résultat financier (ebitda). On rappelle que nous utilisons un modèle linéaire très simple (voir la discussion dans le message précédent).

Nous avons choisi un exemple à trois joueurs ; pour éviter que des conclusions soient hâtivement tirées de cette expérimentation, nous allons nous restreindre à des résultats qualitatifs, suivant le format habituel de la théorie des jeux, sous forme de matrices croisées de stratégies.

Plus précisément, nous mesurons les résultats d’un joueur en pourcentage par rapport aux objectifs de sa stratégie, et nous distinguons trois cas :

  • gagnant : les objectifs sont globalement atteints,
  • perdant : les objectifs ne sont pas atteints mais l’entreprise fonctionne,
  • mort : l’entreprise perd trop d’argent.

De la même façon, nous catégorisons la façon dont la simulation et l’apprentissage fonctionne pour chaque phase de trois façons :

  • stable : les stratégies d’apprentissage convergent vers un état stable,
  • guerre : les stratégies d’apprentissages évoluent de façon claire vers une surenchère,
  • chaos : les stratégies d’apprentissage divergent, la simulation de la phase n’est pas concluante.

L’objectif de cette expérience est double :

  1. étudier l’émergence de comportements collectifs des acteurs et évaluer leurs « territoires ».
  2. au niveau "méta", mesurer l’intérêt de l’approche « Simulation par jeux et apprentissage »

Il va de soi, mais cela mérite d’être répété, que l’intérêt de cette simulation est d’étudier l’émergence de comportement globaux (qu’ils soient positifs ou destructifs) sans communication entre les acteurs.


2. Expérimentation

Une expérimentation est définie par :

  • Un scénario qui donne l’espace des paramètres qui doit être exploré par instanciation (approche Monte-Carlo). Plus nous avons l’intuition que notre modèle économique est précis, plus nous allons donner des bornes précises. A l’inverse, si le modèle est complètement incertain, nous allons donner des intervalles de variation très larges. Un des objectifs à long terme est de caractériser les effets de cette imprécision. Il va de soi qu’un espace large d’indétermination demande un temps de calcul plus important pour que l’exploration aléatoire de l’espace soit plus significative.
  • Des stratégies pour chaque joueur. Nous avons défini 6 stratégies possibles pour les joueurs, dans un ordre croissant d’agressivité (de S1 à S6). Comme expliqué précédemment, la stratégie est définie par des objectifs en terme d’ebitda, de chiffre d’affaire et de part de marché d’acquisition. Par exemple, la stratégie S1 correspond à la préservation de l’ebitda, sous la contrainte que le chiffre d’affaire et la part de marché ne peuvent pas décroître de plus de 1% par an. A l’inverse, la stratégie S6 correspond à un objectif de croissance annuel de l’ebitda de 6% par an, avec un gain de 1% en part de marché.

Rappelons également, de façon sommaire, le déroulement de l’expérimentation (cf. le message précédent) :

  1. Les paramètres économiques sont choisis aléatoirement selon les bornes fixées dans le scénario (ce que nous appelons une phase).
  2. Une itération consiste à simuler le marché et la réaction des joueurs suivant leur tactique.
  3. Une étape consiste à faire exécuter plusieurs fois la même itération en ajustant les paramètres de la matrice tactique, pour optimiser les résultats d’un joueur.

La simulation d’une phase consiste à enchaîner un grand nombre d’étapes pour optimiser les stratégies de façon successive. Nous catégorisons le comportement de cet apprentissage suivant 3 types : convergent, divergent (guerre) ou chaotique.

Le résultat fourni à la fin de l’expérimentation est constitué de:

(a) par joueur, la répartition des cas gagnant / perdant / tués, et les valeurs (moyenne + déviation) associées, du point de vue de l’action (prix, acquisition et fidélisation) et du résultat (ebitda, chiffre d’affaire et part de marché)
(b) les résultats moyens pour les phases stables
(c) les résultats moyens, par joueur, pour les itérations gagnantes.

L’expérimentation que nous décrivons dans ce message ne concerne pas l’exploration de l’ensemble du cube 6 x 6 x 6 des stratégies, mais plutôt l’exploration de la « diagonale » (lorsque les joueurs ont la même stratégie) et le voisinage obtenu lorsqu’un des joueurs varie d’un ou deux degrés d’agressivité par rapport à l’ensemble.

3. Résultats et commentaires


Ces résultats sont provisoires, il faudra valider de façon indépendante l’implémentation et faire de nombreuses autres expériences avant de pouvoir extraire des informations véritablement pertinentes.

Néanmoins, on observe en premier lieu que la simulation fonctionne car le taux de convergence est important. Cela signifie que notre modèle correspond à un jeu assez stable, pour lequel :

  1. il existe des « bonnes » stratégies stables,
  2. un jeu naturel d’ajustement entre les acteurs conduit à évoluer vers ces stratégies
Nous avons des taux de convergence de l’ordre de 75%, ce qui signifie que ce que nous venons d’affirmer est vrai dans 75% des phases produites par échantillonnage. Il reste approximativement 5% de phases qui correspondent à des situations de marchés très difficiles ou l’atteinte des objectifs conduit à une guerre qui produit la disparition d’un des joueurs. Notons que nous avions obtenu des résultats similaires en 2000 et conclu que les conditions d’attribution des licences UMTS à cette époque ne laissaient pas la place pour un jeu à 4 acteurs. Les 20% restants produisent des simulations divergentes (que nous nommons « chaotique »).
Il reste à valider que ces situations sont réellement instables et qu’il ne s’agit pas d’une faiblesse de notre implémentation (par exemple, une meilleure stratégie d’apprentissage collectif pourrait améliorer le taux de convergence). Quoi qu’il en soit, ce premier résultat est très encourageant.
Quelles sont les caractéristiques de ces phases convergentes, ou, autrement dit, que nous apprend cette simulation ? Il est trop tôt pour répondre, et ce blog est n’est pas le lieu pour le faire. On voit cependant émerger des propriétés connues ou suspectées de cet équilibre :
  • La meilleure stratégie du plus petit joueur est d’être un peu plus agressif que les deux autres mais pas trop.
  • Le pilotage financier (la définition d’objectifs fondés sur l’ebitda) conduit à un jeu stable. La recherche de la part de marché est une autre affaire … qui produit une plus forte mortalité.
  • L’augmentation du profit collectif conduit à réduire les coûts d’acquisition, mais à augmenter l’effort de fidélisation.
  • Lorsque la compétition augmente (des stratégies plus agressives pour chaque joueur), on observe une pression sur les prix, mais qui est stabilisée par l’impact sur l’ebitda, puisque le marché est fluide (cf. le point sur la stabilité du jeu lorsque la stratégie est dominée par l’ebitda).
  • Le point précédent adoucit l'effet d'une vérité évidente: la guerre économique est favorable aux gros et aux joueurs dont la structure fixe/variable des coûts diminue le "poids mort".
  • Dans ce contexte (les phases stables), la tactique optimale des joueurs conduit à un certain mimétisme : les évolutions des prix, à des niveaux différents, se ressemblent. La "meilleure" tactique produit à la fois de la "prudence" (peu d'agressivité sur la baisse des prix) et un "couplage" des comportements (et non pas une entente)

Pour finir, on peut noter que les résultats semblent stables par rapport au nombre de phase. On voit très vite se dessiner les grandes lignes (avec 30 phases par expérience), et l’augmentation du nombre de phases précise les résultats mais ne les remets pas en cause.

Ce message conclut notre disgression sur la simulation économique. Le prochain message parlera de notre modèle de fonctionnement d'une entreprise fondé sur les processus, qui va servit de socle à l'analyse des flux d'information.

dimanche, février 19, 2006

Qu'est-ce qui pousse un manager à blogger ?

Ayant passé un peu de temps ce week-end sur deux blogs fort intéressants:
http://altaide.typepad.com/jacques_froissant_altade/2006/02/chasseur_de_tte.html
et
http://www.duperrin.com/?p=181

sur le débat "est-ce raisonable pour un manager de faire son blog?", j'ai donc envie d'apporter une réponse un peu plus construite que celle que j'ai laissé en commentaire.

Je vais d'abord élargir la question : "pourquoi prendre le temps d'écrire" et donner ma réponse personnelle.

(1) la première étape, pour moi, a été le "white paper", c'est à dire un article rédigé que l'on peut donner à des fournisseurs, des partenaires, en bref des personnes externes à l'entreprise. J'ai décidé d'écrire mon premier white paper en 2003 essentiellement pour gagner du temps ! Je me suis rendu compte que je racontais toujours la même chose lorsque j'étais en rendez-vous, interne ou externe, à savoir un résumé "acceptable" de ma propre stratégie informatique, en tant que DSI. D'ou l'idée de l'écrire pour pouvoir le donner. Il s'est alors passé ce que connaissent tous le personnes qui "écrivent" : mettre ses idées sur papier permet de les améliorer, les préciser, les critiquer, etc.

(2) la deuxième étape est la pulication (article de journal ou livre). Pourquoi publier ? Deux raisons de mon coté. Premièrement, c'est la suite de la démarche d'exigence et d'amélioration. En publiant sa réflexion, on s'astreint à un travail de re-construction critique (analyse des différents points de vue, bibliographie complète, validation de la logique de ses arguments, etc.) C'est une école d'exigence. Deuxièmement, c'est une façon de "poser ses idées dans le temps" et de s'assurer de la pérénité d'un dessein. C'est pour cela que j'ai écrit mon livre, pour m'assurer que le "sel" de l'aventure de plusieurs centaines de personnes sur plusieurs années pourrait être transmis aux acteurs qui prendraient la relève. Pour finir, et c’est ce que j’ai constaté par la suite, il y a un vrai bénéfice pour un manager à exprimer « le fond de sa pensée » devant ses collaborateurs, et l’écriture d’un livre permet de le faire plus en profondeur que les habituels forums de la vie professionnelle.

(3) L’étape du blog correspond, pour moi, aux sujets plus complexes et plus ouverts, pour lesquels on souhaite un feedback critique. C’est donc une écriture différente, puisqu’elle porte sur des sujets moins murs, et qui peut être plus facétieuse ou provocante, puisque l’objectif est précisément le débat. L’intérêt pour le manager est évident : il vaut mieux entrendre les critiques et les objections dans le cadre informel de l’écghange d’idée du blog, que lorsqu’on défend sa stratégie devant son comité de direction ou devant ses collaborateurs. Un blog est donc un « banc d’éssai ». Pour ma part, j’ai choisi le blog pour tester des idées un peu scientifique et abstraite, donc je ne m’attend pas à des débats passionés (de plus mon rythme est lent, parce que, effectivement, je n’ai pas beaucoup de temps :-)). En revanche, je lis avec beaucoup d’intérêt les blogs qui portent sur des sujets plus proches de la stratégie du manager, comme celui de Jean-Pierre Corniou (http://jeanpierrecorniou.typepad.com/technologie_et_socit_de_l/)
Comme je l’ai écris dans mon commentaire sur le blog de Jacques Froissant, il faut bien sûr respecter les contraintes liées à l’entreprise (confidentialité, modération, et surtout faire attention à la mauvaise interprétation possible de ses propos). Mais cela laisser une grande marge de manœuvre.

mercredi, février 15, 2006

Simulation par jeux et apprentissage

Théorie des Jeux et Modélisation des Organisations


Nous allons aujourd’hui nous intéresser à une approche de la modélisation de systèmes complexes fondée sur la théorie des jeux, et sur la théorie de la rationalité limitée, qui postule que le comportement de chaque acteur est lié à l’optimisation d’objectifs propres (qui correspondent à sa perception). Nous allons proposer une méthode de simulation dont l’objectif est de faire émerger des propriétés d’un système complexe, incertain et partiellement inconnu.

Le point de départ est le suivant : supposons que nous ayons construit un modèle, qui nous semble valide dans sa structure, mais pour lequel ils soit difficile d’obtenir les paramètres (par exemple, les cœfficients des équations du modèle). Ce modèle représente un « jeu » dans le sens le plus général possible : il existe un certain nombre d’acteurs, et une notion de valeur produite par chaque acteur en fonction du contexte (marché) et des décisions des autres acteurs. Le modèle est en quelque sorte une mise en équation des « règles du jeu ». Ce qui est difficile dans une modélisation économique n’est pas de trouver des équations, mais bien d’ajuster les paramètres pour décrire une réalité le plus fidèlement possible. Nous allons distinguer trois types de « difficultés » :

  1. les coefficients représentent des sensibilités, des élasticités, qui demanderaient des études poussées. Par exemple, il est raisonnable de modéliser l’appétence du public à un produit donné avec une « courbe en S », il est par contre difficile, sauf à disposer d’études marketing, de connaître précisément les valeurs qui caractérisent cette courbe en S.
  2. les coefficients représentent la stratégie des acteurs (ou de l’acteur, si il est unique). Dans ce cas, nous souhaitons précisément conserver ces paramètres globaux de notre modèle. Nous ne connaissons pas forcément la stratégie des acteurs, mais l’intérêt de la simulation est précisément d’étudier les effets combinés des différentes stratégies, comme dans une approche de théorie des jeux.
  3. Les coefficients qui sont sous l’arbitrage de chaque acteur, mais qui sont dominés par les objectifs stratégiques. Autrement dit, il s’agit de paramètres que chaque acteur peut adapter en fonction de ses objectifs. Si nous laissions ces paramètres comme des éléments de stratégies, nous aurions un espace de combinaisons très grand et dont une partie n’aurait pas de sens.

Le premier groupe contient les paramètres qui sont indépendants des acteurs et qui peuvent représenter « le marché ». Le deuxième groupe contient les paramètres qui définissent les objectifs de chaque acteur dans le jeu/modèle, tandis que le troisième groupe contient les paramètres que chaque acteur tient à sa disposition pour atteindre ses objectifs. Pour reprendre un exemple trivial, le premier groupe peut décrire les appétences du marché à un certain type de produits, le second groupe les objectifs des acteurs (part de marché, bénéfice, etc.) et le troisième groupe les tactiques associées (prix de vente, promotion, etc.)

Nous proposons une approche que nous nommerons « Simulation par Jeux & Apprentissage », qui consiste à étudier les effets de combinaisons de stratégies dans un contexte incertain, et lorsque la fonction qui décrit le retour économique est elle-même complexe (ce qui représente donc une extension de la « théorie des jeux classiques » dans deux dimensions. Plus formellement, nous allons supposer que pour chaque combinaison de stratégie d’acteur, la fonction qui décrit le retour économique est une fonction paramétrique, dont une partie des paramètres décrit le marché et n’est connu que de façon approximative sous la forme d’intervalle, et l’autre partie est optimisable par chaque acteur. Nous retrouvons donc ici nos trois groupes de paramètres que nous allons traiter de la façon suivante :

  1. Les paramètres du premier groupes, dits paramètres économiques, seront géré par une simulation de type Monte-Carlo, c’est-à-dire en générant un très grand nombre de tuples de paramètres de façon aléatoire. Comme nous ne formulons aucune hypothèse sur la distribution des « vraies valeurs » des paramètres au sein des intervalles, nous utiliserons une distribution uniforme des valeurs aléatoires.
  2. Les paramètres qui décrivent les stratégies des acteurs sont identifiés comme paramètre stratégique et vont servir à déterminer une matrice d’interaction (à n dimension, pour n joueurs). Le but de la simulation sera de caractériser une, plusieurs, ou l’ensemble des cases de cette matrice.
  3. Les paramètres du troisième groupe sont les « paramètres tactiques » et nous allons déterminer leurs valeurs (ou leurs trajectoires) par optimisation/apprentissage. Si le problème d’optimisation est parfaitement défini pour chaque acteur, le problème global est plus complexe, et nous allons voir plusieurs façons de l’aborder.


Le déroulement de la simulation, pour un ensemble de stratégies fixé (c’est-à-dire pour une case de la matrice) peut être décrit comme suit (j'avais prévu une Figure mais je maîtrise mal cet outil :-(). Chaque tirage des valeurs des paramètres économiques correspond à une phase. Une simulation va comporter de quelques milliers à quelques millions (ou plus) de phases, selon la complexité de l’espace des paramètres économiques. La simulation d’une phase consiste à rechercher un équilibre de Nash dans l’optimisation des paramètres tactiques des acteurs. Il y aurait un livre entier à écrire sur la caractérisation des espaces de recherche et sur les stratégies d’optimisation. Pour l’instant, nous procédons par :
(a) optimisation locale pour chaque acteur pour ajuster ses paramètres,
(b) cycle d’optimisation acteur par acteur, jusqu’à l’obtention éventuelle d’un point fixe.
Compte tenu de cette approche très simple, nous pouvons caractériser certains équilibres (de Nash par construction) mais nous ne pouvons pas garantir que nous allons trouver de tels équilibres si ils existent. Notre approche expérimentale distingue 3 états :
- convergent,
- divergent (on peut caractériser une trajectoire divergente, le plus souvent qui correspond à une « guerre » économique)
- chaotique (par différence).
Une modélisation est « réussie » si les phases chaotiques sont « rares ». Les informations que nous cherchons à extraire (dominance d’un acteur, adéquation d’une stratégie à un objectif, etc.) sont obtenus des phases convergentes. Ce sujet méritera, bien sûr, des développements plus longs.



Nous allons maintenant illustrer cette approche sur deux exemples.
Le premier exemple que j’ai implémenté représente une simulation de trois acteurs dans un marché mature, tel que celui de la téléphonie mobile. Comme il s’agit d’un marché avec subvention du terminal, donc coût d’acquisition important (cela serait vrai pour de nombreux autres exemples), il existe un certains nombre de dimensions dans les actions de chaque acteur qui rend le jeu « intéressant » (quelle subvention, quelle fidélisation, etc.).
Le modèle économique est simple, il décrit le marché selon deux processus, celui de « churn » et celui d’acquisition. Les équations sont des équations « différentielles », en ce sens que les valeurs sont obtenues comme la somme d’une valeur par défaut et d’une différence. Les valeurs par défaut (churn et part de marché) sont celles qui ont été publiées en 2005. Les différences sont des fonctions linéaires des changements de prix, de subvention et de fidélisation. Les paramètres économiques sont précisément ces coefficients d’élasticité du comportement des consommateurs par rapport aux prix.
Le « jeu » se joue sur 3 ans. Les stratégies représentent simplement les objectifs, sous forme d’une trajectoire espérée, en terme de part de marché, d’ebitda ou de chiffre d’affaire. Par exemple, la stratégie d’un acteur peut être de garantir une croissance de 8% de son EBITDA par an. Certaines stratégies sont plus agressives que d’autres (par exemple, si chaque acteur souhaite augmenter sa part de marché), mais il est possible de représenter des stratégies plus « financières » (orientées résultat).
La tactique dans ce modèle représente les règles qui vont déterminer le prix de vente du « produit moyen », le montant de la subvention moyenne et le montant de ce qui est dépensé par client dans le programme de fidélisation. La même approche différentielle/linéaire est appliquée : nous partons des valeurs moyennes 2005 avec des coefficients pour introduire des variations linéaires en fonction des variations constatés sur les trois paramètres stratégiques (part de marché réelle vs. objectif, ebitda constaté vs. objectif et chiffre d’affaire vs. objectif). La tactique est donc décrite avec une matrice 3 x 3. L’apprentissage se fait par optimisation locale (hill-climbing) de chacun des 9 coefficient et semble donner de bons résultats : pour une phase et une situation donnée (les jeux des autres acteurs), l’algorithme d’apprentissage converge très rapidement.
Bien sûr, ce modèle souffre de nombreux défauts, le premier étant la linéarité des équations (ce qui serait facile à corriger avec des « courbes en S » appropriées). La seconde limitation (cohérente avec la première) est que la tactique est une matrice indépendante de la situation. Cela signifie que ce modèle n’est « valide » que lorsque les phases correspondent à des évolutions proches de la situation de 2005. Les premiers résultats sont néanmoins intéressants J J’y reviendrais dans un prochain message. Pour la petite histoire, il s’agit d’une reprise d’un travail effectué fin 2000 pour étudier les stratégies des « joueurs » UMTS, dans des scénarios à 3 et 4 joueurs. Un des intérêts de ce modèle est que je peux l’utiliser pour mettre au point la bibliothèque de simulation par jeux & apprentissage, ayant une bonne intuition de ce qui est une « phase vraisemblable » et ce qui ne l’est pas. Cela me sera utile pour le second sujet.

Ce second exemple est précisément l’étude des effets combinés des leviers stratégiques d’organisation d’une entreprise dont j’ai parlé dans les messages précédents. Dans cet exemple, nous n’avons qu’un seul acteur, mais un espace de stratégie organisé selon 5 axes et pour lequel nous souhaitons examiner les combinaisons, à la manière d’une matrice de théorie des jeux. Ici, le modèle économique représente les flux d’informations et de travails nécessaires pour effectuer des processus dans une entreprise. Plus précisément, voici quelques exemples de ce que nous avons appelés les paramètres économiques :

  • Facteur de compétence: gains de productivité en fonction du niveau de compétence.
  • Efficacité des canaux de communication.
  • « Besoin de coordination » (quantité de temps pour le transfert, quantité de temps pour la synchronisation, …).
  • Coût du travail (en % de la valeur produite).
  • Quantités d’aléas générés lors de la simulation.


Ces paramètres sont définis par des intervalles (min, max) et nous utiliserons l’approche Monte-Carlo pour engendrer des phases correspondant à des situations multiples. Si l’on se réfère à ce qui a été dit dans les messages précédents, chaque phase (instanciation des paramètres économiques) va correspondre au contexte économique et industriel d’une entreprise.

Les stratégies représentent les choix d’organisation selon les cinq leviers que nous avons identifiés dans le message précédent :
- temps total passé en réunion,
- organisation plate ou profonde,
- degré de redondance ou, au contraire, organisation dimensionnée « au plus juste »,
- spécialisation des collaborateurs (vs. généralistes),
- type d’organisation matricielle.
L’objectif est de confronter les effets combinés des 5 axes stratégiques. En particulier, il s’agit de voir si il est possible de caractériser des « espaces de phases » propices à certaines combinaisons stratégiques.
Les paramètres tactiques représentent l’adaptation de l’entreprise en fonction de ses objectifs stratégiques. Plus précisément nous allons représenter les choix suivants :

  • Management du temps : comment le temps est alloué dans l’entreprise par catégorie (communication, travail, préparation, etc.)
  • Utilisation des canaux de communication en fonction des flux d’informations. Les canaux correspondent approximativement aux contacts directs (synchrones), asynchrones (mails) et aux réunions. Les différents flux correspondent au fonctionnement de l’entreprise et de ses processus (pilotage, synchronisation, transfert).
  • Gestion des priorités : chaque processus participe à la création de valeur, la gestion des priorité représente à la fois la formule pour attribuer des priorités variables en fonction des différents critères (valeur, délai, difficulté) et la façon dont ces priorités influence les transferts d’information (flux).
  • Gestion des aléas et délai : le modèle de fonctionnement inclut la génération d’aléas en terme de valeur et de délai. La façon dont ces aléas sont traités est également un paramètre tactique.

La suite de la description de ce modèle de fonctionnement des organisations sera fournie dans un message suivant. Il va de soi que pour que les indications relevées par simulation soient le moins du monde pertinentes, il faut d’abord se convaincre du bien-fondé du modèle. Pour cela il nous faudra revenir en détail sur la notion de processus et la façon dont ils sont représentés dans notre modèle.
Cette approche s’inspire de la théorie des jeux, mais représente une évolution radicale, puisque nous quittons la modélisation mathématique pour rentrer dans la modélisation informatique (cf. « A New Kind of Science » de Steve Wolfram). C’est à la fois beaucoup plus puissant et beaucoup moins convaincant. Les équations qui représentent les comportements des joueurs et leurs retours ne sont plus des matrices ou des processus markoviens, ce sont des automates programmables. C’est pour cela que nous avons besoin d’apprentissage.
A suivre, ce sujet est complexe et mérite de nombreux autres développements, ainsi que quelques exemples …