dimanche, novembre 19, 2006

Un nouveau blog ...

Je viens de me diversifier en ouvrant un second blog:

http://informationsystemsbiology.blogspot.com/

Les thèmes touchent à la "biologie des systèmes d'information" : complexité, émergence, qualité de service, autonomie, adaptabilité et évolution ...

Ce nouveau blog est en anglais. A bientot pour un nouveau message sur l'architecture organisationnelle. Je vais reprendre le travail d'expérimentation.

-- Yves

dimanche, novembre 12, 2006

De retour dans la blogosphère ...

J'ai terminé le manuscrit et il est parti chez l'éditeur il y a une semaine !
Je vais donc reprendre mon activité de recherche et d'investigation sur les flots d'information et les structures des entreprises. Même si le sujet du livre (les systèmes d'informations) est différent et plus vaste, mon travail de l'été m'a conduit à appronfondir certaines questions connexes au sujet de ce blog. Aujourd'hui, je me propose de reprendre quelques points importants que vous pourrez découvrir dans l'annexe du livre (probablement en Janvier).
Je vais procéder avec un mélange de copier/coller (lorsque c'est possible) et de synthèse (le cas échéant) ....


1. L'importance de la simulation pour caractériser la latence

Une partie importante de l’action sur l’organisation a pour but d’augmenter la réactivité et la flexibilité. Ces points ont été développés brièvement dans le corps du livre, mais ils sont le centre de nombreux ouvrages de management, dont une partie est citée dans la bibliographie.
Ce sont deux qualités essentielles, tout le monde en conviendra, mais qui sont :
1. difficiles à mesurer,
2. encore plus difficiles à valoriser.
Pour reformuler de façon plus claire, si une nouvelle organisation permet de réduire de 10% le temps de propagation de l’information, quel est le gain économique pour l’entreprise ? Il est, pour l’instant, très difficile de répondre à cette question, même pour une entreprise donnée.
Cette conclusion, négative, est la seule que je pouvais tirer dans mon livre, mais elle m'a convaincu de l'importance du travail de simulation que j'ai entamé.

Je compte donc me remettre au travail en terme d' "expérience computationelle" (franglais). Je reviendrai un autre jour sur mon plan d'action 2007. Pour faire simple, il y a 3 étapes:

  1. Tenir compte des quelques idées développées pendant l'été pour améliorer le modèle (cf. les points suivants de ce message)
  2. Automatiser l'exécution des simulations, puisque, comme je l'ai expliqué en Juin, ces expériences prennent un temps considérable pour leur exécution.
  3. Enrichir la prise de mesure pour permettre une analyse plus automatisée des résultats. Pour l'instant, le "déchiffrage" des mesures d'expérience prend trop de temps.

2. Caractériser la dépendance entre le taux d'occupation et la fréquence

J'ai été amené à faire une micro-étude pour calculer l'évolution de la fréquence de contact en fonction du taux d'occupation avec un modèle très simple.

J’utilise un modèle grossier, issu d’une modélisation d’ordonnancement de file d’attente avec des blocs temporels de longueur d. Pour simplifier si x est le taux d’occupation (entre 0 et 1), et y = (1 – x), le temps qu’il faut pour placer un nouveau bloc acceptable pour k participants est d ×(1 – y^k)/(y^k). Cette formule (approchée) s’obtient facilement par récurrence (considérer deux cas : le créneau suivant est libre pour les k, ou on passe au créneau suivant, en supposant l’indépendance de chaque créneau horaire).

Voici le type de courbe que l'on obtient :















Notons que cette formule est cohérente avec ce que j'avais proposé il y a six mois mais représente une première amélioration.


3. L'importance de la structure des "small worlds"

Suite aux recherches effectuées en 1967 par le psychologue social Stanley Milgram, différents chercheurs se sont penchés sur l’hypothèse des « six degrés de séparation », qui stipule que nous sommes tous en contact avec n’importe quel individu de la planète, en utilisant une chaîne de « connaissances » de moins de 6 maillons (où chacun connaît le suivant). Parmi ces chercheurs, Duncan Watts et Steve Strogatz ont caractérisé la notion de « small worlds », qui est un des concepts les plus importants dans l’analyse des réseaux sociaux (cf. plus loin). Voir à ce sujet le livre de D. Watts : « Six Degrees : The Science of a connected age ». Si le réseau social était aléatoire, en supposant que nous connaissons tous 100 personnes, les six degrés de séparation seraient une simple conséquence du fait que 10^12 est plus grand que le nombre d’habitants de la planète. Mais c’est évidemment loin d’être le cas (il y a beaucoup de doublons dans mes amis et les amis de mes amis). La structure de petit monde se produit lorsque le regroupement naturel des «amis » en « tribus » est compensé par quelques connexions qui font que le diamètre est proportionnel au logarithme de la taille du monde.

Le sujet des « degrés de séparations » est un sujet passionnant. Comme nous l’avons remarqué dans une note précédente, le calcul de la latence du "système réunion" est une variante plus sophistiquée du calcul du degré de séparation, mais on y retrouve tous les concepts importants. Par exemple, l’analyse des réseaux sociaux fait émerger l’importance des acteurs « fortement connectés ». On va retrouver le même rôle dans l’analyse du système réunion, qui peut être joué par un manager ou un chef de projet (cf. , en particulier, « The Tipping Point » de Malcom Gladwel). Le rôle a été formalisé avec la notion de degré d’intermédiarité, due à Linton Freeman. Freeman est l’inventeur du concept de centralité, qui peut précisément être étendu à des graphes valués, donc à des calculs de temps de latence. Lire, sur ce sujet, « Centrality in valued graph : A measure of betweenness based on network flow », in Social Networks, vol. 13, 1991.

Commençons par faire deux hypothèses fortes :

  1. la fréquence de contact est uniforme,
  2. le graphe réunionnel vérifie l’hypothèse des « petits mondes », puisqu’il s’agit d’un réseau social, et que les réseaux sociaux vérifient cette hypothèse le plus souvent (nous reviendrons sur ce point).

Dans ce cas, le degré de séparation est log(Di/Dr), et la latence est :log(Di/Dr) / f = log(Di/Dr) x Dr / T. Nous retrouvons ici la formule que j'avais proposé il y a 6 mois.
Autrement dit, dans ce cas de figure, il faut choisir une petite valeur de Dr pour favoriser la latence, c’est-à-dire favoriser les petits groupes de personnes qui se voient souvent.
Si nous relâchons la première hypothèse et supposons, toujours pour simplifier, qu’il existe trois classes de fréquence (comme ce qui est indiqué sur la figure), le calcul de la latence revient à minimiser la longueur des chemins dans le graphe étiqueté associé au système réunion. Sans rentrer dans le détail des calculs, on s’aperçoit qu’il vaut mieux choisir des chemins qui utilisent des arêtes de fréquence faible.

Je reviendrai sur ce sujet dans des prochains messages, il mérite un plus ample développement. Aujourd'hui je retiens deux idées:

  1. La structure des petits mondes est essentielle pour caractériser la latence
  2. Il y a un compromis latence/fidélité qui mérite d'être étudié de plus près

En effet, la multiplication des étapes intermédiaires dans la propagation réduit la fidélité. Un système réunion qui reposerait uniquement sur des petits groupes fortement connectés n’est donc pas optimal. Ceci nous conduit à postuler que doivent coexister, à l’intérieur du diamètre réunionnel, des liens à fréquence élevée pour un petit diamètre, et des liens à basse fréquence qui permettent justement d’étendre ce diamètre. Cette approche permet, de plus, de favoriser l’émergence de la structure de « petit monde ». En effet, les expériences de D. Watts montrent qu’on construit cette structure précisément en ajoutant quelques liens « aléatoires » sur une structure de connexion régulière. Notons par ailleurs que l’inverse d’une structure de « petit monde » est, dans le cas qui nous intéresse, ce que l’on appelle une organisation en « silos », c’est-à-dire un graphe avec des structures fortement connectées mais trop peu reliées les unes aux autres.

4. L'importance de la "bandwidth" et le domaine de recherche CMC

La modélisation de la fidélité en vue de la simulation est complexe. On peut introduire une probabilité de perte d’information, ou, ce qui est plus réaliste, un taux de réémission : un canal peu fidèle va nécessiter l’émission de plusieurs messages pour faire passer la même information. On est de toute façon très loin de la réalité de la différence entre les canaux selon que l’intonation de la voix, la posture corporelle, l’expression du visage est disponible pour le récepteur ou non.

L’étude des communications électroniques est devenu un champ important de la sociologie et la psychologie appliquée (CMC : Computer Mediated Communication). A titre d’introduction, on peut lire « Developing Personal and Emotional Relationships via Computer-Mediated Communication » de B. Chenault dans CMC Magazine, May 1998 (disponible en ligne: www.december.com/cmc/mag).

Par exemple, le concept de bandwidth est au coeur de cette idée de fidélité.
On peut lire « Beyond Bandwidth : Dimensions of Connection in Interpersonal Communication » de B. Nardi, in Computer Supported Cooperative Work (2005), vol. 14, Springer. La notion de bandwith recouvre à la fois la capacité à transmettre l’information mais aussi le feedback, qu’il s’agisse d’une forme explicite (une conversation, pourvu que la latence soit suffisamment faible) ou implicite (transmission des signaux faibles liés aux postures corporelles, aux expressions faciales, etc.). Cet article passionnant s’intéresse aux trois aspects relationnels de la communication : l’affinité, l’engagement et l’attention, pour en déduire des recommandations sur l’usage des technologies comme support de communication, et pour insister sur l’importance de la communication « corporelle ».

La conclusion de cet été est que j'ai un gros travail de bibliographie devant moi ! Amis lecteurs, faites moi part de vos suggestions en terme de CMC !

A bientot,

-- Yves