dimanche, mars 19, 2006

Bibiographie (2e partie)

Je continue ma petite chronique bibliographique, au travers du prisme de ce blog. Voici cinq autres livres qui sont pertinents pour ce sujet.


(1) H. Amblard, P. Bernoux, G. Herreros, Y-F. Livian, Les nouvelles approches sociologiques des organisations, Editions du Seuil, 2005
Un livre qui permet de faire le point sur les approches sociologiques et les différentes écoles de pensées. Un peu difficile pour un novice, mais le chapitre 3 est passionnant et parfaitement pertinent pour l’étude des flux puisqu’il porte sur les réseaux, au travers de la « sociologie de la traduction ».

  • Le premier chapitre présente l’analyse de Mintzberg sur le rôle de l’organisation et de la structure (lire p. 22 à 32)
  • 3e chapitre particulièrement intéressant dans le contexte des réseaux scientifiques.
  • Le dernier chapitre (nouvelle édition) contient des réflexions intéressantes sur le rôle du consultant (p. 266).


(2) C. Morel, Les décisions absurdes. Folio essais, Gallimard, 2002.Un livre absolument délicieux, à recommander sans réserve. Sur notre sujet, le chapitre 7 (les pièges de la coordination) est une référence. On y trouve des remarques sur :
· les tours de tables
· le temps passé en réunion
· la distinction entre coordination et information


(3) E. Lawler, From the ground up : six principles for building the new logic corporation. Jossey-Bass, 1996Un grand classique de l’organisation des entreprises, très souvent cité et à juste titre de mon point de vue.
  • Les chapitres 4,5 et 6 forment une référence sur la structure des organisations.
  • Le premier chapitre introduit des idées clés sur l’organisation par processus et l’évolution de l’organisation hiérarchique.
  • Le chapitre 6 illustre le débat specialisation/généraliste.

(4) M. Gladwell, The Tipping Point, Abacus, 2000.Je considère les livres de Malcom Gladwell parmi les meilleurs que j’ai jamais lus. En particulier, je recommande « Blink » qui est absolument génial. Je cite « the Tipping Point » dans cette liste car il contient, dans son chapitre deux, une réflexion sur les flux d’information et sur ce qui rend le transfert efficace. Cet effort de modélisation est original et pertinent pour le sujet de l’efficacité du transfert de l’information dans l’entreprise.

(5) J. Miller, Game Theory at Work, Mc Graw-Hill, 2003
Une reference qui est un peu ésotérique dans cette liste, mais c’est un excellent livre, facile à lire, et qui introduit les concepts clés, comme celui d’équilibre de Nash (que j’ai utilise de façon libre dans un message précédent).

samedi, mars 11, 2006

Un modèle de fonctionnement de l’entreprise centré sur les flux d’information

Dans ce message, je vais décrire un modèle de fonctionnement central à ma réflexion sur les flux d’information et l’impact de l’organisation sur ces flux. De quoi s’agit-il et pourquoi est-ce important ?
Le modèle que je propose est un modèle générique d’entreprise centré sur les processus. Il s’agit d’une abstraction du fonctionnement de l’entreprise, qui fait apparaître les flux d’information entre les acteurs et qui explicite le couplage (action <-> information), c’est-à-dire quels flux sont produits par quelles actions et comment l’efficacité du transfert d’information influe sur le résultat des actions.
Ce modèle générique repose sur des paramètres internes que nous ne connaissons pas (coût du travail, impact de la compétence sur la productivité, efficacité des canaux de communication, etc.), c’est pour cela que nous avons développé l’approche « Simulation par Jeux & Apprentissage » présentée dans les messages précédents. Nous y reviendrons un autre jour, pour l’instant, mon objectif est d’expliquer le modèle.
Le modèle de fonctionnement des processus est le socle de ma démarche : si ce modèle ne vous convainc pas, rien de ce qui va suivre n’a le moindre intérêt. Il sert à formuler les interactions entre les différents « leviers » sur l’organisation de l’entreprise. C’est donc un exercice délicat en terme d’équilibre :
  • si le modèle est trop complexe, personne n’y comprendra rien et le château de cartes s’écroule,
  • si le modèle est trop simple, il ne traduira pas les interactions organisation / flux / processus.

La structure du modèle (modéliser une entreprise par ses processus) est classique et repose, par exemple, sur les livres dont j’ai cité une partie précédemment. Ce qui est plus original, c’est la modélisation quantifiée des flux d’information associés et des interactions. La question qu’il faudra se poser à la fin du message est : « si nous connaissions les paramètres, ce modèle pourrait-il décrire le fonctionnement d’une entreprise ? »


1. Modélisation de l’Entreprise

Nous allons représenter une entreprise par un ensemble d’agents, et abstraire l’organisation interne en deux catégories, U et H. L’ensemble des agents H représente la structure de management, qui pilote un certain nombre d’unités U. Il ne s'agit pas d'une séparation supervision production, tous les agents sont des "acteurs de la société de la connaissance" et ont pour fonction le transfert, l'enrichissement et le routage de l'information. Disons simplement que les acteurs U participent directement aux processus (ce qui inclus de la coordination) et que les acteurs H effectuent uniquement des tâches de coordination.

L’organisation de management H est définie par une structure pyramidale hiérarchique (un arbre déterminé par sa taille et sa profondeur), qui remplit les fonctions classiques liées au lien manager-collaborateur, et une fonction de collaboration transverse liée aux processus de l’entreprise. La combinaison des deux éléments permet de simuler différents degrés de « matriciel » de l’organisation, en fonction d’un paramètre qui va déterminer la « distribution des prises de décision » selon les deux axes horizontaux et verticaux.

Une organisation U est une collection d’agents, définis par leurs compétences. L’organisation U gère les tâches qui lui sont confiées en fonctions des compétences. Elle s’apparente au méta-processus de planification (au sens d’un planning de Gant) des tâches : qui fait quoi de quand à quand ? La modélisation de la spécialisation de l’entreprise joue sur le nombre d’unités et sur la distribution des compétences.

Un agent partage son temps en trois catégories :

  1. activité (pour un agent de type U) : exécution d’une tâche d’un processus
  2. communication : transfert d’un flux d’information, à un autre agent
  3. autre : planification, réflexion, etc.

Les communications sont réparties selon quatre canaux :

  1. M(eet) : la communication se fait lors d’une réunion planifiée
  2. A(sync) : communication asynchrone, par email, papier, site web, etc.
  3. S(ync) : communication synchrone, par téléphone, IM ou en direct
  4. H(ier): communication en one-to-one selon la « voie hiérarchique »

La répartition entre les catégories est supposée constante, selon des pourcentages qui font partie de la tactique de l’entreprise (voir plus loin). Cette hypothèse sera relaxée dans une version ultérieure du modèle mais il faut commencer de façon simple. La répartition « idéale » en fonction des besoins et de l’efficacité des canaux sera obtenue par apprentissage.

L’efficacité des canaux de communication est obtenue de façon relative par rapport à une transmission lors d’une réunion « face à face » avec deux participants, en considérant le flux d’information transmis et le temps de participation de l’ensemble des acteurs. Nous allons donc utiliser un paramètre qui, d’une certaine façon, décrit le taux d’efficacité moyen d’une réunion (quelles informations retirent les participants d’une réunion ??). Nous faisons l’hypothèse que cette valeur moyenne existe et qu’elle a un sens, pas qu’elle est facile à mesurer !

Comme nous l’avons expliqué dans le message de Février, nous allons étudier les « stratégie organisationnelles » des entreprises selon 5 axes, qui correspondent aux cinq leviers que nous avons identifiés dans un des premiers messages :

  • temps total passé en réunion : pourcentage du temps passé en réunion
  • organisation plate ou profonde : profondeur de l’arbre H
  • degré de redondance ou, au contraire, organisation dimensionnée « au plus juste : nombre d’agents par rapport à la charge de travail théorique-
  • spécialisation des collaborateurs (vs. généralistes) : distribution et nombre de compétences
  • type d’organisation matricielle : répartitions des agents H selon les axes horizontaux et verticaux, et localisation des décisions.


2. Modélisation des processus et flux d’information

Les processus sont modélisés, de façon fort classiques, par des enchaînements de tâches qui produisent de la valeur. Nous nous limitons à des chaînes, compte-tenu de la généralité et du caractère macroscopique du modèle.

Une tâche est simplement définie par la compétence requise, la quantité de travail exprimé en durée, et le nombre minimal et maximal d’agents qui peuvent être affectés à cette tâche. Les compétences de chaque agent sont représentées par des couples (identifiant, niveau), pour modéliser le fait qu’un agent possède un certain niveau pour une compétence donnée.

La valeur produite par le processus est fonction du temps de réalisation, elle est maximale jusqu’à la « deadline », puis décroît linéairement jusqu’à la date d’expiration. On pourrait penser que la réduction du problème d’allocation des ressources de l’entreprise à la planification temporelle est une simplification grossière, mais, pour la même raison de caractère macroscopique, c’est déjà un problème d’allocation complexe (même difficile au sens de la théorie de la complexité) qui suffit faire apparaître les impacts des choix d’organisation. Nous allons supposer que les unités U font le meilleur choix d’allocation de ressource, ce qui est un peu optimiste, pour nous concentrer sur les problèmes de pilotage stratégiques et de transmission d’information.

La simulation du fonctionnement de l’entreprise consiste donc à générer une « charge de processus » et à simuler leurs exécutions en mesurant la valeur produite, qu’il convient de maximiser.

L’exécution d’un processus engendre et nécessite un certain nombre de flux d’information. Le modèle que je propose en distingue quatre :

  1. les flux de transfert, lors du passage d’une tâche à une autre dans le déroulement d’un processus. Ce flux a pour origine les agents de l’unité qui termine la tâche et comme cible les agents de l’unité qui démarre la tâche suivante.
  2. les flux de « feedback » qui permettent à l’unité de signaler l’état de l’avancement ou les incidents (cf. section suivante) à son management
  3. inversement, les flux de « pilotage » ont pour origine le management H et pour cible l’unité U et servent à propager les ajustements en réaction aux évenements (qu’ils soient internes ou externes), de deux types : re-priorisation des tâches ou re-allocation de ressources.
  4. des flux de synchronisation (par exemple, anticipation) entre l’unité qui exécute une tâche et les unites qui ont ou vont exécuter les taches précédentes ou ultérieure. Ce flux est proportionnel à la complexité et la « transversalité » de l’activité de l’entreprise. Il peut ne pas exister pour des processus extrêmement stables et matures, ou au contraire représenter une part importante du temps pour une entreprise jeune.

Les pourcentages de génération de type de flux par processus font partie des paramètres généraux (liés aux scénarios). Ils dépendent, par exemple, du type d’industrie (voire d’entreprise)
- Processus plus ou moins complexes,
- Processus plus ou moins transverses.
Il serait effectivement intéressant de savoir, pour une entreprise donnée, combine une heure d’activité génère d’heures ou minutes de transfert d’information et de synchronisation. Pour l’instant, nous allons traiter ces grandeurs comme des paramètres, mais leur détermination statistique n’est pas hors de portée d’une entreprise moderne.

En revanche, l’utilisation des canaux pour les différents types de flux représente ce que nous avons appelé la « tactique » de l’entreprise, et que nous allons optimiser à l’intérieur de la simulation. Plus précisément, la tactique est l’ensemble des paramètres qui représentent :

  • Le management du temps (allocation par catégorie, cf. plus haut) ,
  • L'utilisation des quatre types de canaux de communication pour les 4 types de flux. Dans notre première version, nous supposons que l’affectation est stable (indépendante de la priorité associée aux flux) et unique.
  • Le management des priorités : comment l’entreprise associe des priorités aux processus et aux tâches. Nous supposons que la priorité est une fonction de la valeur finale, du coût de production et de la probabilité de succès (sous forme d’espérance de résultat). En jouant sur les paramètres, on peut représenter des approches plus ou moins favorables à la prise de risque et des choix heuristiques (favoriser ce qui rapport et qui va bien, ou se concentrer sur ce qui a besoin d’être réparé, …).

3. Modélisation par événements discrets

Il ne nous reste plus qu’à décrire le fonctionnement dynamique du modèle, c’est-à-dire l’exécution des processus. Pour que ce modèle soit un peu réaliste, il faut donc introduire la notion d’aléas.
Il y a en premier lieu les aléas externes, qui concernent la valeur générée par un processus ou la date de sortie attendue. L’information est transmise au pilotage de l’entreprise, qui prend une décision d’adaptation ou de re-priorisation. L’adaptation consiste à essayer d’absorber l’aléa de façon horizontale (dans le temps) ou verticale (augmenter/diminuer les ressources). Le re-priorisation s’effectue simplement en re-calculant la formule de priorité qui tient compte de la valeur théorique et de la probabilité de terminer dans les délais.
Le deuxième type d’aléas est interne, et correspond à une augmentation/diminution de la quantité de travail requise par une tâche. Cet aléas est détecté « sur le terrain » (dans l’unité) et son traitement suit la même procédure.

Le modèle de simulation peut ensuite être décrit comment un « simple » ordonnanceur d’événements « discrets ». Nous n’aborderons pas ce sujet aujourd’hui, la seule dimension qui manque à cette description du modèle pour être complète est la notion de «temps de propagation » de l’information en fonction du canal choisi. Ce sujet est au cœur de la modélisation des flux d’information dans l’entreprise. Nous y reviendrons dans un prochain message.

Il est intéressant de récapituler l’ensemble des paramètres associés au modèle qui forment le scénario d’une expérimentation :

  • Loi de distribution de la charge de l’entreprise : granularité, déviation, etc.
  • Degré d’interdépendance dans l’exécution : quantité de flux de type pilotage et synchronisation par rapport au « temps productif »
  • Facteur de compétence: gains de productivité en fonction du niveau de compétence
  • Efficacité des canaux de communication. Cette efficacité se mesure dans trois dimension : quantité d’information transportée, latence et fidélité du transfert. C’est ce point qui mérite plus de discussion
  • Coût du travail (en % de la valeur produite)

Comme nous l’avons dit en introduction, nous n’allons pas essayer de qualifier ces paramètres, mais plutôt utiliser l’approche « jeux & apprentissage » pour explorer les espaces de scénarios.


4. Peut-il sortir quelque chose de tant d’inconnu ?

A cette étape, il est temps de marquer une pause. Un modèle où la quasi-majorité des paramètres sont inconnus a-t-il un sens et une utilité ? Sur le premier point, c’est au lecteur de se faire une idée … sur le second point, c’est précisément l’intérêt de l’approche présentée dans les messages précédents.
L’ensemble des paramètres décrit un espace, à la fois de types d’entreprises et de types de fonctionnement. En appliquant une simulation qui explore cet espace par instanciation « Monte-Carlo », nous pouvons trouver deux types de choses :

  • des propriétés structurelles qui sont vraies indépendamment des paramètres (par exemple, liée à la non-elasticité du temps),
  • des propriétés qui sont liées à des hypothèses sur les paramètres, et donc sur le type d’entreprise. Cela pourrait permettre de qualifier notre intuition que certaines « recettes de management » sont dépendantes du contexte de l’entreprise et de qualifier cette dépendance

A suivre …

dimanche, mars 05, 2006

Résultats de la « simulation jeux & apprentissage » dans un marché mature

Ce message fait suite à celui de Février sur la simulation par "jeux et apprentissage".


1. Compétition sur un marché grand-public

Nous allons décrire un exemple de simulation par jeux et apprentissage appliqué à un marché grand-public. Rappelons les grandes lignes (cf. le précédent message) :

  1. Nous avons un marché, 3 acteurs qui proposent des produits avec un coût important d’acquisition par client, et une stratégie de fidélisation qui a également un coût par client acquis. Le marché est supposé mature : la plupart des « nouveaux » clients quittent un des joueurs pour en rejoindre un autre, même si il reste une légère croissance organique.
  2. Des équations simples décrivent la façon dont le marché réagit aux offres des acteurs et produisent des parts de marché, des consommations et des taux de churn. Les équations sont simples, les paramètres ne sont pas connus et sont donc évalués avec une approche « Monte-Carlo ».
  3. Chaque joueur réagit aux résultats mensuels du marché selon une « tactique » qui n’est autre qu’une matrice 3 x 3 qui explique comment ajuster les prix, les coûts d’acquisition et le montant de la fidélisation en fonction des scores courants de vente (part de marché), de revenus (chiffre d’affaire) et de résultat financier (ebitda). On rappelle que nous utilisons un modèle linéaire très simple (voir la discussion dans le message précédent).

Nous avons choisi un exemple à trois joueurs ; pour éviter que des conclusions soient hâtivement tirées de cette expérimentation, nous allons nous restreindre à des résultats qualitatifs, suivant le format habituel de la théorie des jeux, sous forme de matrices croisées de stratégies.

Plus précisément, nous mesurons les résultats d’un joueur en pourcentage par rapport aux objectifs de sa stratégie, et nous distinguons trois cas :

  • gagnant : les objectifs sont globalement atteints,
  • perdant : les objectifs ne sont pas atteints mais l’entreprise fonctionne,
  • mort : l’entreprise perd trop d’argent.

De la même façon, nous catégorisons la façon dont la simulation et l’apprentissage fonctionne pour chaque phase de trois façons :

  • stable : les stratégies d’apprentissage convergent vers un état stable,
  • guerre : les stratégies d’apprentissages évoluent de façon claire vers une surenchère,
  • chaos : les stratégies d’apprentissage divergent, la simulation de la phase n’est pas concluante.

L’objectif de cette expérience est double :

  1. étudier l’émergence de comportements collectifs des acteurs et évaluer leurs « territoires ».
  2. au niveau "méta", mesurer l’intérêt de l’approche « Simulation par jeux et apprentissage »

Il va de soi, mais cela mérite d’être répété, que l’intérêt de cette simulation est d’étudier l’émergence de comportement globaux (qu’ils soient positifs ou destructifs) sans communication entre les acteurs.


2. Expérimentation

Une expérimentation est définie par :

  • Un scénario qui donne l’espace des paramètres qui doit être exploré par instanciation (approche Monte-Carlo). Plus nous avons l’intuition que notre modèle économique est précis, plus nous allons donner des bornes précises. A l’inverse, si le modèle est complètement incertain, nous allons donner des intervalles de variation très larges. Un des objectifs à long terme est de caractériser les effets de cette imprécision. Il va de soi qu’un espace large d’indétermination demande un temps de calcul plus important pour que l’exploration aléatoire de l’espace soit plus significative.
  • Des stratégies pour chaque joueur. Nous avons défini 6 stratégies possibles pour les joueurs, dans un ordre croissant d’agressivité (de S1 à S6). Comme expliqué précédemment, la stratégie est définie par des objectifs en terme d’ebitda, de chiffre d’affaire et de part de marché d’acquisition. Par exemple, la stratégie S1 correspond à la préservation de l’ebitda, sous la contrainte que le chiffre d’affaire et la part de marché ne peuvent pas décroître de plus de 1% par an. A l’inverse, la stratégie S6 correspond à un objectif de croissance annuel de l’ebitda de 6% par an, avec un gain de 1% en part de marché.

Rappelons également, de façon sommaire, le déroulement de l’expérimentation (cf. le message précédent) :

  1. Les paramètres économiques sont choisis aléatoirement selon les bornes fixées dans le scénario (ce que nous appelons une phase).
  2. Une itération consiste à simuler le marché et la réaction des joueurs suivant leur tactique.
  3. Une étape consiste à faire exécuter plusieurs fois la même itération en ajustant les paramètres de la matrice tactique, pour optimiser les résultats d’un joueur.

La simulation d’une phase consiste à enchaîner un grand nombre d’étapes pour optimiser les stratégies de façon successive. Nous catégorisons le comportement de cet apprentissage suivant 3 types : convergent, divergent (guerre) ou chaotique.

Le résultat fourni à la fin de l’expérimentation est constitué de:

(a) par joueur, la répartition des cas gagnant / perdant / tués, et les valeurs (moyenne + déviation) associées, du point de vue de l’action (prix, acquisition et fidélisation) et du résultat (ebitda, chiffre d’affaire et part de marché)
(b) les résultats moyens pour les phases stables
(c) les résultats moyens, par joueur, pour les itérations gagnantes.

L’expérimentation que nous décrivons dans ce message ne concerne pas l’exploration de l’ensemble du cube 6 x 6 x 6 des stratégies, mais plutôt l’exploration de la « diagonale » (lorsque les joueurs ont la même stratégie) et le voisinage obtenu lorsqu’un des joueurs varie d’un ou deux degrés d’agressivité par rapport à l’ensemble.

3. Résultats et commentaires


Ces résultats sont provisoires, il faudra valider de façon indépendante l’implémentation et faire de nombreuses autres expériences avant de pouvoir extraire des informations véritablement pertinentes.

Néanmoins, on observe en premier lieu que la simulation fonctionne car le taux de convergence est important. Cela signifie que notre modèle correspond à un jeu assez stable, pour lequel :

  1. il existe des « bonnes » stratégies stables,
  2. un jeu naturel d’ajustement entre les acteurs conduit à évoluer vers ces stratégies
Nous avons des taux de convergence de l’ordre de 75%, ce qui signifie que ce que nous venons d’affirmer est vrai dans 75% des phases produites par échantillonnage. Il reste approximativement 5% de phases qui correspondent à des situations de marchés très difficiles ou l’atteinte des objectifs conduit à une guerre qui produit la disparition d’un des joueurs. Notons que nous avions obtenu des résultats similaires en 2000 et conclu que les conditions d’attribution des licences UMTS à cette époque ne laissaient pas la place pour un jeu à 4 acteurs. Les 20% restants produisent des simulations divergentes (que nous nommons « chaotique »).
Il reste à valider que ces situations sont réellement instables et qu’il ne s’agit pas d’une faiblesse de notre implémentation (par exemple, une meilleure stratégie d’apprentissage collectif pourrait améliorer le taux de convergence). Quoi qu’il en soit, ce premier résultat est très encourageant.
Quelles sont les caractéristiques de ces phases convergentes, ou, autrement dit, que nous apprend cette simulation ? Il est trop tôt pour répondre, et ce blog est n’est pas le lieu pour le faire. On voit cependant émerger des propriétés connues ou suspectées de cet équilibre :
  • La meilleure stratégie du plus petit joueur est d’être un peu plus agressif que les deux autres mais pas trop.
  • Le pilotage financier (la définition d’objectifs fondés sur l’ebitda) conduit à un jeu stable. La recherche de la part de marché est une autre affaire … qui produit une plus forte mortalité.
  • L’augmentation du profit collectif conduit à réduire les coûts d’acquisition, mais à augmenter l’effort de fidélisation.
  • Lorsque la compétition augmente (des stratégies plus agressives pour chaque joueur), on observe une pression sur les prix, mais qui est stabilisée par l’impact sur l’ebitda, puisque le marché est fluide (cf. le point sur la stabilité du jeu lorsque la stratégie est dominée par l’ebitda).
  • Le point précédent adoucit l'effet d'une vérité évidente: la guerre économique est favorable aux gros et aux joueurs dont la structure fixe/variable des coûts diminue le "poids mort".
  • Dans ce contexte (les phases stables), la tactique optimale des joueurs conduit à un certain mimétisme : les évolutions des prix, à des niveaux différents, se ressemblent. La "meilleure" tactique produit à la fois de la "prudence" (peu d'agressivité sur la baisse des prix) et un "couplage" des comportements (et non pas une entente)

Pour finir, on peut noter que les résultats semblent stables par rapport au nombre de phase. On voit très vite se dessiner les grandes lignes (avec 30 phases par expérience), et l’augmentation du nombre de phases précise les résultats mais ne les remets pas en cause.

Ce message conclut notre disgression sur la simulation économique. Le prochain message parlera de notre modèle de fonctionnement d'une entreprise fondé sur les processus, qui va servit de socle à l'analyse des flux d'information.