dimanche, juillet 27, 2014

Changer radicalement pour s’adapter au consommateur de l’ère numérique



Le titre de mon billet est le sous-titre du livre de Marco Tinelli, “Le Marketing Synchronisé”, dont je vais vous parler aujourd’hui. Marco Tinelli est le patron de FullSIX , un des meilleurs spécialistes en France du marketing digital et de l’économie numérique. Le succès impressionnant du groupe FullSIX lui donne une légitimité fondée sur l’expérience, qui est évidente lorsqu’on lit ce livre.


« Le Marketing Synchronisé » est rapidement devenu la référence du domaine, parce qu’il reprend, explique et illustre les principes du marketing digital que l’on trouve dans les livres classiques américains, dont les incontournables que je cite souvent ici (« The Cluetrain Manifesto », « Wikinomics », « the Intention Economy », « The Lean Startup », etc.). Mais il y a bien plus qu’une excellente synthèse, précisément parce qu’elle est nourrie par l’expérience. Tout comme « The Lean Startup », ce livre combine une réflexion très claire et structurée, avec des exemples multiples qui permettent de mieux comprendre, tout en amplifiant la crédibilité.

Comme toujours, ce billet ne prétend pas être un résumé, mais plutôt une sélection d’idées qui alimentent ma propre réflexion, dans ce cas sur l’”homéostasie digitale”, c’est-à-dire l’adaptation nécessaire des entreprises à leurs consommateurs numériques. D’une certaine manière, le livre de Marco Tinelli est un approfondissement des sept principes que j’ai proposés dans le billet du mois de Mars.


1.  Markets are conversations


Le point de départ de la réflexion sur le consommateur numérique reste la formule choc du « Cluetrain manifesto » : « Markets are conversations ». La relation client devient une conversation lorsqu’elle est respectueuse, à double sens, et alignée sur temps du client. Doc Searls a une jolie formulation de cette transformation dans « The Intention Economy » : on est passé d’un monde qui commence par une transaction commerciale, qui donne lieu à une conversation, qui construit sur la durée une relation, à un monde digital dans lequel il faut construire une relation de confiance, qui permet d’ouvrir des conversations, qui donnent lieu à des transactions. Puisque j’ai lu « Le Marketing synchronisé » en format numérique et que j’ai profité de Kindle pour souligner les phrases clé, je vais innover en introduisant chaque point important de mon résumé par une citation extraite du livre:

  •  « C’est un fait qui devrait faire réagir toute l’industrie : les gens n’aiment pas la pub. Ils ne la trouvent ni utile, ni convaincante, ni pertinente. Ils la considèrent comme une intrusion, une pollution sonore, visuelle, intellectuelle.” Je vous renvoie à la lecture du livre pour plus de détails et de statistiques. « Pull versus push », c’est-à-dire passer de la communication que l’on impose au consommateur à une conversation tirée par les besoins et le calendrier du client est un impératif factuel.
  • « Le consommateur n’est pas une cible à agresser et à conquérir. Il est en position de force et impose un nouveau contrat aux marques : je peux donner mon attention et mon temps si l’on me donne de la valeur en échange”. On retrouve ici le thème central de l’attention du client, qui se mérite. Le consommateur est à la fois mieux informé, mieux éduqué et organisé, grâce aux communautés d’intérêt.
  • « Il faut savoir donner pour prendre. Autour d’une idée d’échange de valeur d’usage avec le consommateur, les marques peuvent utiliser leur communication pour les inviter à interagir, et non pas forcément à acheter immédiatement. » C’est le point fondateur de la conversation, c’est un échange, qui est partiellement désintéressé. La communication redevient un acte de don, elle doit apporter de la valeur au client. Elle passe donc par un investissement, qu’il s’agisse de contenus ou de services, selon le modèle freemium, rendu célèbre par le best-seller « Free » de Chris Anderson.
  • « Une marque qui investit pour convaincre grâce à la pertinence est donc une marque à la fois authentique et respectueuse du consommateur, deux facteurs clés de succès à l’ère digitale ». C’est un point essentiel qui n’est pas encore suffisamment compris : pas de stratégie digitale sans stratégie de contenus. De même qu’une entreprise digitale est presque toujours une entreprise avec une véritable stratégie et compétence logicielle,  une entreprise digitale est forcément une « media company ». La stratégie de contenus nourrit l’échange régulier avec le client (don « gratuit » de valeur), et l’approche de « média synchronisé » (le bon contenu, au bon moment, sur le bon terminal, au gré du client)  est une marque de respect … et d’efficacité.



2. Le  Marketing Synchronisé est la rencontre de “Big Data” et des “Conversations”


Les idées relatives aux conversations sont anciennes, on les trouve également bien exprimées dans un rapport de 2003 de l’IFTF : « The Consumer-Driven Organization ». Ce qui a changé dix ans plus tard est la capacité technologique à utiliser les données client disponibles pour créer et nourrir ces opportunités de conversation. Il y a bien deux dimensions de synchronisation qui sont très bien expliquées par Marco Tinelli : utiliser toutes les données disponibles, toutes les traces numériques, pour comprendre le client d’une part et utiliser la technologie informatique pour réagir et s’adapter en temps réel au client. Voici un aperçu au travers de quelques extraits :
  • « Au cœur de la synchronisation se trouve le fait qu’une campagne peut maintenant se comporter comme un organisme vivant. Grâce aux données obtenues en temps réel et aux outils pour les interpréter et les transformer en actions, les campagnes peuvent maintenant évoluer en fonction de la réalité mesurée ».  Cette métaphore biologique est très riche et nous renvoies aux thèmes des systèmes complexes maintes fois évoqués dans ce blog : la campagne marketing est un système adaptatif qui réagit de façon homéostatique à son environnement. Nous pouvons convoquer une fois de plus François Jullien : au lieu d’un plan « grec » défini à l’avance, la campagne marketing devient une «stratégie chinoise » d’opportunité dont le centre est le comportement du client. C’est très élégant conceptuellement, mais ce degré de « customer centricity » demande un véritable « lâcher prise » qui n’est pas simple pour nos entreprises.
  • « L’intelligence client est sans aucun doute la bataille la plus importante de l’ère digitale ». L’intelligence client est le moteur de ces conversations synchronisées, c’est qui permet d’alimenter l’approche « pull ».  L’intelligence client est nourrie par les données que l’entreprise sait et peut collecter. Il y a une double dimension de sens (de vision) et de confiance. La vision est nécessaire pour que la collecte fonctionne (en théorie, on pourrait collecter et définir la vision ensuite, mais la pratique est différente). La confiance est nécessaire pour que la conversation fonctionne, et pour que client accepte que ses données soient collectées.
  • « La thèse principale était que le marketing est bien plus efficace si l’on demande la permission au consommateur de lui parler, ce qui est aujourd’hui possible en utilisant le digital ». Cet argument revient sur l’utilisation de la technologie numérique pour intensifier l’opportunité de conversation, par rapport à ce qui était possible il y a 10 ans. Qu’il s’agisse de l’omni-présence des smartphones, des réseaux sociaux, de la spectaculaire pénétration des « casual games », il existe de multiples opportunités d’offrir au futur client le choix et l’opportunité de rentrer en contact avec la marque.
  • « On parie sur la force du contenu mis à disposition pour que les consommateurs se passent l’information entre eux par e-mail, via Facebook ou tout simplement par le bouche-à-oreille. Ce phénomène s’appelle aussi earned media ou « média mérité » ». On retrouve ici les mots clés essentiels : contenu,  mise à disposition,  besoin pour l’entreprise de  « mériter » l’attention. Les réseaux sociaux sont clairement sous le contrôle des consommateurs, mais ils n’en créent pas moins de formidables opportunités de communication pour les entreprises qui jouent le jeu de la conversation.

3. Co-créer des expériences avec le client


Le concept de « experience co-creation with customer » est au cœur du best-seller de C.K. Prahalad et V. Ramaswami (2004). Ce concept se décline à la fois sur le long terme, pour créer des produits (c’est le cœur du lean startup) et sur le court-terme, quand il s’agit de campagnes de marketing et de communication. On retrouve une idée simple et formidable exprimée dans « The World is Flat » : l’aboutissement ultime de la personnalisation n’est pas l’hypertrophie de la technologie pour prédire exactement ce que veut chaque client, c’est de laisser le client libre de faire ses propres choix pour se constituer son expérience, unique et adaptée. Cela ne signifie pas qu’il faille faire faire au client des choses inutiles : son temps est précieux et l’objectif de l’entreprise digital doit être au contraire de lui faire gagner du « temps disponible ». Les formulaires qui déchargent le back-office de l’entreprise ou ceux qui cherchent à renseigner des profils détaillés pour nourrir le « lead management » font partie d’un autre âge numérique et n’ont plus leur place dans le monde d’aujourd’hui et encore moins dans celui de demain. Voici un ensemble de réflexions autour de ce troisième thème :

  • « Les ingénieurs qui ne comprennent pas qu’ils contribuent à créer des expériences utilisateur sont condamnés à changer de métier ». Le terme « expérience », en particulier dans l’expression « experience design », est devenu un des « buzzword » du digital, remplaçant produit et service. En fait il ne s’agit pas de remplacement, le monde numérique a besoin de produits et besoin de services, mais c’est l’expérience qui donne le sens, et c’est le client qui est l’architecte de son expérience.
  • « La plupart des créatifs qui travaillent en agence vous le diront, les clients tuent les idées. Car ils demandent aux concepts et aux messages de remplir tellement de fonctions qu’ils deviennent des fourre-tout qui en disent tellement qu’ils ne disent plus grand-chose. »  J’ai souligné cette phrase qui est essentielle pour réaliser des nouveaux produits et services, pour deux raisons. Tout d’abord, parce qu’elle met en garde contre la tentation du « couteau-suisse », contre l’empilement des fonctionnalités, contraire à la simplicité recherchée par les utilisateurs dans le monde numérique. Deuxièmement, il est important d’apporter des solutions qui soient à la fois utiles (par rapport à un « pain point ») et flexibles, pour que l’utilisateur se les approprient et les remplissent de son propre sens. « La clé créative de l’ère digitale est donc de créer des concepts, des cadres d’expression à forte valeur ajoutée pour chacune des personae, mais qui laisse suffisamment de champ d’expression pour nourrir de nombreuses idées à la fois variées et successives. »
  • Je n’ai pas le temps ici de rentrer dans le détail du concept des personae, qui est un outil fondamental du design d’expérience et qui est bien expliqué dans le livre. L’orientation client se pratique sur trois échelles de temps : avant, pendant et après la création. Le concept de persona permet de « convoquer » le client avant la création, tandis que la création incrémentale et interactive utilise le client pendant la création. L’analyse quantitative et qualitative, après le lancement, complète cette « customer centricity ».  « L’industrie du marketing digital, plus perméable à cette nouvelle culture, a importé cette démarche, l’a croisée avec des éléments historiques de réflexion marketing, faisant des personae un outil de réflexion redoutablement efficace pour les marques ».
  • « Les marques sont mondiales, l’expérience qu’elles offrent est locale. Tout ce qui est digital est géolocalisable. La publicité, les contenus, les services, les offres, la forme, le fond, tout se rattache au contexte, là où est le consommateur ». Cette phrase exprime de façon concise l’articulation entre le produit qui est global et l’expérience qui est locale et contextualisation. La synchronisation du marketing, c’est de permettre au client de reconnaitre la marque globale, tout en construisant une expérience sur mesure. La « contextualisation », en fonction du temps, du lieu, de l’action en cours, des désirs (pour faire référence une fois de plus à l’économie de l’intention), va devenir une des capacités technologiques les plus différenciantes pour les entreprises numériques.


4. Tester et mesurer


La dernière partie de ce billet traite d’un sujet qui est devenu banal, mais dont la pratique n’est pas encore banalisée. Il s’agit de l’optimisation par la mesure, une des caractéristiques majeures des « géants du Web » tels que décrits par Octo, et également une des clés du lean startup. Depuis l’A/B testing jusqu’à l’analyse des mouvements oculaires en passant par l’analyse des traces de navigations, il existe de multiples méthodes pour savoir ce qui plait pour de vrai et ce qui est véritablement utile. Il y a des exemples très intéressant dans le livre « Le Marketing synchronisé », je vais ici me contenter de souligner quelques idées essentielles :
  • « L’économiste Tim Hartfor a une obsession : dans un monde de plus en plus complexe, le Trial and Error est la solution aux problèmes de modèles, et ce qui freine l’adoption de cette démarche est le God Complex, ou le sentiment des décideurs et des entreprises qu’ils peuvent et doivent avoir juste du premier coup». J’ai repris cette citation un peu longue car elle me semble essentielle, c’est le résumé de l’ensemble de la démarche du « test and learn ». Une des thèses principale de ce blog, tout comme de mon livre « Processus et Entreprise 2.0 », est que la complexité croissante de notre environnement rend cette approche d’essai et apprentissage obligatoire.
  • « Mais la mesure ne sert à rien si elle ne permet pas de réagir, de piloter ». C’est une des caractéristiques principales du monde numérique : le circuit court entre la mesure et la réaction, l’adaptation. C’est ce que nous avons souligné dans la deuxième partie, la technologie numérique ne sert pas seulement à collecter les mesures et les données en temps réel, elle sert également à modifier ce qui est proposé au client.
  • Le ROI (Return on Investment) d’une campagne de marketing synchronisé ne se planifie pas,  il se mesure et il s’optimise.  On retrouve ici le principe clé du lean startup : une startup est une usine à business model, dans le sens où le modèle d’affaire efficace est le résultat, en fin de développement de la startup, et non la condition de départ. Une fois de plus, c’est une question de complexité : l’importance de la « traction » (usage réel de l’ensemble des utilisateurs) dans la génération de valeur est combinée avec sa nature « non linéaire » (boucles de propagation et renforcement viraux) qui rend la prévision très aléatoire.  Dans le monde digital, on prend bien sûr des décisions basées sur les retours sur investissements, mais ces retours s’évaluent de façon factuelle, une fois que le client est effectivement en place dans la boucle, pas de façon théorique et prédictive. C’est pour cela que l’on parle du principe de la perte acceptable (affordable loss)  - ce principe est évoqué dans mon billet sur les écosystèmes logiciels. C’est probablement le principe fondamental de l’économie digitale et du “marketing synchronisé” : la place du client est telle dans la création de valeur, et la sophistication des expériences est telle, qu’il n’est pas possible de prévoir, il faut donc « se contenter » de mesurer et de s’adapter.
  • « C’est le fondement de la nouvelle philosophie du marketing et de la communication à l’ère digitale : il faut faire et dans l’action, dans l’interaction avec les consommateurs, les marques apprennent, deviennent plus expertes, plus justes ». On retrouve ici la dimension apprentissage de « test & learn ». Cet apprentissage se fait dans l’action, dans l’interaction mesurée avec les utilisateurs. Les lecteurs attentifs de ce blog reconnaitront mon plaidoyer pour l’action en tant que source d’innovation digitale.
  • « On oublie trop souvent que dans KPI (Key Performance Indicators, ou indicateurs clés de performance) la première lettre est le K de key, ce qui implique de se concentrer sur un nombre limité d’indicateurs pertinents sur lesquels on peut agir ». Je ne cite cette phrase, très proche de ce que j’écris dans mon propre livre, que pour souligner qu’il y a de multiples autres sujets intéressants abordés dans « Le Marketing Synchronisé ». En particulier, Marco Tinelli aborde le sujet complexe du respect de la vie privée et des données, et de l’importance de l’écosystème réglementaire. Il écrit par exemple : « Dans un monde de communication centrée sur la synchronisation, la seule chose que puisse faire un législateur averti c’est d’encourager l’émergence d’un écosystème de données exploitables dans le respect de la vie privée ». Je reviendrai sur ce sujet à la fin de l’été, suite au rapport que je suis en train d’écrire pour l’Académie des Technologies sur les risques et opportunités autour du « Big Data ».


Pour conclure, je voudrai souligner que ce livre, même s’il traite en premier lieu des campagnes marketing, est une vraie réflexion sur l’économie et les consommateurs numérique, qui s’applique également à la création de produits et services. Par exemple, il permet de comprendre ou de redécouvrir les principes du MVP (Minimum Viable  Product) : il faut faire des MVP pour pouvoir mesurer « pour de vrai » ce qui apporte de la valeur au client, et commencer de la sorte la co-création. Les sondages d’opinions et les études clients à priori ne permettent pas de savoir ce qui est vraiment utile (de Henry Ford à Steve Jobs, les exemples abondent). Même sur une population éclairée (de marketeurs, de développeurs, de designers), le vote n’est pas un outil pour savoir ce qui sera utile et efficace. Les utilisateurs sont capables de donner beaucoup de feedback, et d’excellente qualité quand ils sont confrontés à une solution, pas à un rêve.  Le MVP, c’est précisément l’objet qui permet de recueillir le feedback produit. C’est ce qui fait écrire à Marco Tinelli : « La stratégie, la création et l’exécution sont devenues une seule et même chose, avec un seul arbitre : le feedback consommateur qu’est la performance mesurée ». 

Une fois de plus, cette affirmation est facile à faire mais demande un véritable lâcher prise dans l’exécution. La célèbre citation de Reid Hoffman, le fondateur de LinkedIn , illustre cette difficulté à mettre en place le concept du MVP « pour de vrai » : « If you are not embarrassed by the first version of your product, you’ve launched too late. ». Je vous renvoie également à la vidéo de Sebastian Thrun, un des innovateurs les plus talenteux de cette décennie, dont la recette pour innover est simplement : « build it, break it, improve it ».



lundi, juin 30, 2014

Un réseau d’équipes a-t-il besoins de managers ?



Le court billet de ce jour est un complément au message précédent  dans lequel j’avais conclu que la meilleure organisation scalable face à la complexité est un réseau d’équipes. Pour être un peu plus précis, je pourrais dire que nous avions terminé la réflexion précédente avec les conclusions suivantes :
  • L’unité de travail est une équipe autonome de petite taille
  • L’organisation s’appuie sur l’auto-organisation des équipes en réseau, autour d’une finalité commune
  • Le réseau se construit avec une structure « multi-échelle », dans lesquelles des équipes jouent un rôle de connecteur à différents niveaux d’abstraction dans une vision système/sous-système.
Aujourd’hui je vais me poser la question du rôle, ou du besoin, de managers dans une telle organisation distribuée d’équipes. Cette réflexion s’inscrit dans le thème à la mode de la « fin du management » que j’ai déjà abordé dans mon billet « Sociocratie : la fin du management » et plus généralement sur le « futur du management ». Sans répondre à la question posée dans le titre, je vais éclairer le débat (ma position sur le besoin de managers, mais d’un type différent, est une constante de ce blog) avec trois contributions.

1.      Le besoin d’émissaires dans un réseau d’équipes


Le point de départ de ma réflexion ici est la constatation, énoncée maintes fois, que la complexité empêche de décomposer les prises de décisions. Ceci peut se formuler de différentes façons :
  • Dans une décision lié à un sujet complexe (au sens précédent, de la richesse des interactions entre les parties prenantes), l’ensemble du contexte de chaque partie prenante doit être représenté, et une abstraction (e.g., une page Powerpoint dans notre culture d’entreprise du 20e siècle) ne suffit pas.
  • Le besoin de décisions conduit à un nombre croissant de réunions, avec un nombre croissant de participant si l’on ne prend garde à la structure du réseau.
  • La quantité d’information nécessaire pour une décision augmente, cf. Mintzberg : It is too common to witness people being blamed for failures that can be traced to their inadequate access to the information necessary to perform their delegated task »

Cette constatation conduit au besoin, pour les équipes, de pouvoir se faire représenter par des émissaires, que j’aurai tendance à qualifier de « proxys » dans mon jargon d’informaticien. Le rôle de l’émissaire est d’en dire peu et d’en savoir beaucoup. C’est le nœud gordien de la complexité, il faut trancher la complexité entre le besoin paradoxal d’ :

  • Un échange de peu d’information pour des décisions rapides (éviter l’accumulation de contexte, qui crée la confusion)
  • Un échange qui tienne compte de la richesse des contextes.
L’échange qui réalise ce compromis est un échange dynamique (miroir de la complexité) qui ne peut pas être pré-orchestré. C’est le rôle de l’émissaire : participer à cette émergence rapide, en ayant a sa disposition l’ensemble du contexte (il faut des émissaires compétents) mais en restant synthétique dans son expression (une qualité fort appréciée par nos anciens et qui semble se perdre). Le fait que le processus de prise de décision soit le miroir de la complexité de la situation explique pourquoi la méthode du siècle dernier, dans laquelle le « grand chef » demande à chaque partie prenante une synthèse sur un A4, ne fonctionne plus.

Il y a une dizaine d’années, j’avais remarqué que la fonction de DSI « crée le talent ». Le rôle de DSI est associé à une position extraordinaire au carrefour de multiples flux d’information de l’entreprise. Celui qui se trouve à ce carrefour construit rapidement un « contexte » qui est à la fois un avantage (dans le sens de la formation de ses compétences) et un handicap (dans le sens expliqué par Mintzberg dans « Managing » : ce contexte ne se délègue pas, et donc la délégation du rôle est souvent non efficace). Les rôles de proxys d’une équipe ou d’une organisation sont des rôles émergents : dès qu’on les décide, ils sont construit et structurés par les flux d’information qui se mettent à les irriguer.

Ce rôle d’émissaire n’est pas nécessairement un rôle de « manager », cela peut être un rôle de représentation au sens du « secrétaire général ». Mais l’expérience montre que beaucoup de décisions supposent une capacité à accepter des compromis qui est de facto une position de pouvoir sur l’équipe ou l’organisation représentée par l’émissaire. Ce rôle pourrait également être pris comme un rôle « tournant » (un émissaire désigné par l’équipe) mais on se heurte à l’observation précédente : la coordination est plus efficace si l’on profite de l’émergence des compétences liée à la pérennité de la position au sein des « carrefours d’information ».

2.       Le besoin d’incarnation des rôles


Dans notre micro-introduction sur l’organisation « réseau dynamique d’équipe scalable face à la complexité », nous avons introduit implicitement plusieurs rôles :
  •  Définir une vision/ stratégie : il faut construire cette finalité qui est distribuée / partagée et comprise par tous.
  • Synchroniser et orchestrer : dès lors que le réseau comporte de nombreuses équipes, cette fonction apparait, puisque l’auto-organisation de la petite équipe qui s’appuie sur les liens forts n’est plus scalable. Il est possible d’appliquer certaines bonnes pratiques, telles que le management visuel, à différentes échelles d’abstraction, mais les modes de synchronisation sont différents.
  • Emissaire : représenter son équipe au sein d’une autre équipe (ce que nous venons de discuter) avec une vraie capacité à s’engager au nom de l’équipe dans la recherche de solution à des problèmes complexes.
La thèse de cette deuxième section est que les organisations fonctionnent mieux si ces rôles sont incarnés, c'est-à-dire confié à une personne, qui est identifiée au rôle. Il y a trois autres solutions :
  1. Le rôle est représenté par un document, un artefact (e.g., un wiki), un totem.
  2. Le rôle est représenté par une position (élue/désignée/…) qui change fréquemment.
  3.  Le rôle est représenté par un comité.
La section précédente a montré, en suivant les pas de Mintzberg, qu’il y a un avantage à l’incarnation du point de vue de la gestion des flux d’informations et des contextes (par rapport aux solutions 1 et 2). Ce que la psychologie et l’étude des comportements nous enseigne, c’est que nous sommes câblés pour suivre une personne, en fonction de l’empathie, des émotions, de la capacité à s’identifier.  C’est un sujet de débat avec mes lecteurs férus de sociocratie, mais mes trente ans dans l’entreprise coïncident avec les enseignements de l’éthologie. Il y a une force primaire et instinctive dans l’incarnation des rôles, et on la retrouve dans toutes les « success stories » des dernières décennies. Pour être caricatural, je dirai que l’entreprise du 21e siècle n’a pas besoin que de collaboration et de consensus, elle a « besoin de tripes ».

Je ne fais ici qu’effleurer le sujet de la réalité psychologique de la fonction de management. Je renvoie le lecteur à l’ouvrage de référence de Bolman et Deal, « Reframing Organizations », dans lequel l’organisation est analysée sur quatre plans : structure, politique, humain et symbolique. La spécificité de ce blog est d’analyser la dimension structurelle, parce que mes outils et mon expérience me donne une petite légitimité, mais les trois autres dimensions sont absolument fondamentales pour comprendre les organisations. Ces trois autres dimensions pointent de façon commune au besoin d’incarnation des rôles dans une organisation, en particulier les rôles de leadership (vision) et les rôles d’orchestration (alignement et cadencement).

Je conclus de ces observations qu’il existe bien des rôles de « managers » dans cette « nouvelle forme d’organisation en réseau ». Ceci ne signifie pas que je viens de ré-inventer le rôle du manager hiérarchique ! Je vous renvoie au billet sur l’Entreprise 3.0 dans lequel je détaille ce que pourrait être le « nouveau rôle de manager » (ou au dernier chapitre de mon livre). Nous avons vu dans le message précédent que  cette  « nouvelle organisation » est construite sur l’autonomie des équipes, l’écoute du client, la factualisation des décisions et sur le développement permanent des compétences. Ceci dessine un profil de manager :  jardinier (de l’émergence : au service des conditions de succès de l’équipe), à l’écoute, coach (du kaizen) et mentor (de l’apprentissage).

3.      Réseaux plats et scalables


Je vais terminer par un des sujets favoris de ce blog : l’aplatissement des structures de décision. Je commence par le principe suivant : la bonne longueur d’un chaine de décision est deux, trois tout au plus et sous réserve. La chaîne dont je parle est celle qui va de celui qui connait le problème à résoudre à celui qui va prendre la décision, ou, de celui qui exprime le besoin à celui qui va construire la solution. Dans le premier cas, le « pouvoir » est en fin de chaine, dans le second cas, il est au début de la chaîne, mais cela ne change rien à ce qui va suivre. Tout ce que je viens de raconter sur la complexité et la difficulté à transporter les contextes signifie que chaque intermédiaire est un intermédiaire de trop pour prendre la bonne décision. Le cas de la chaîne de longueur 3 est particulier parce qu’il vérifie la condition suivante : « dans toute conversation, il y a au moins une personne compétente sur une partie du problème ». De façon moins cynique, dans une chaine à trois, le maillon intermédiaire est exposé de façon directe aux deux contextes (celui du besoin et celui de la réalisation), ce qui évite d’inventer des besoins et des réalisations incohérentes. Le bon intermédiaire (pour faire le parallèle avec le bon émissaire) est celui qui pratique le « selfLean » et qui sait s’effacer.




En fait ce que je viens de dire s’exprime de façon plus simple : il faut être quatre pour bloquer solidement un processus de décision et prendre des décisions absurdes.  Dès que la chaine contient quatre personnes (ou plus) dans le processus de décision, la condition précédente n’est plus vérifiée : il existe des conversations (délicieuses, pour l’observateur) entre des personnes qui ne comprennent réellement ni le besoin ni la solution.  L’existence de telles situations est un symptôme de la complexité (dans un monde compliqué mais linéaire, la cascade hiérarchique du contrôle-commande fonctionne). L’exemple classique d’une chaine de longueur quatre est le pattern « client / MOA / MOE / développement » (maitrise d’ouvrage, maitrise d’œuvre – dans certaines entreprises, « maitrise d’ouvrage » désigne le client et on parle de A(ssistance) MOA ou MOAD(éléguée)). C’est pour cela que les méthodes agiles ont été inventées, pour mettre le développeur en face du client, dès que la situation est complexe (dès qu’il existe un humain utilisateur, par exemple). Mais la collection de blocages de longueur 4 que j’ai pu observer en dix ans dépasse très largement le cadre informatique.

Il existe une contradiction entre les deux affirmations que nous avons faites au sujet de l’organisation scalable. Même si le diamètre (le nom technique donné à la longueur maximale d’une chaine dans un réseau) augmente faiblement dans une organisation « scale-free », elle dépasse 3. Il est donc nécessaire de combiner à l’organisation en réseaux la modularité de la délégation, c’est-à-dire organiser le réseau d’équipe de façon modulaire, précisément pour que la quasi-totalité des chaines de décision soient de longueur inférieure à trois. Ceci n’est pas un sujet d’architecture d’organisation, mais un sujet d’architecture métier (entrerprise architecture), qui dépasse le cadre de ce billet ( et en plus, c’est bien compliqué et je n’ai pas la solution :)). Plus concrètement, cela signifie une forte culture de la délégation ! On retrouve d’une autre façon ce que j’ai « démontré » dans un billet précédent : dans un monde complexe, il faut plus de délégation. Non seulement les équipes sont autonomes et capables de prendre la majorité des décisions, mais pour les décisions qui exigent plusieurs parties prenantes, il y a suffisamment de délégation pour que les équipes et émissaires nécessaires soient une distance de un ou deux.

Je conclurai par un clin d’œil à mes camarades architectes : la bonne architecture d’entreprise modulaire est celle qui supporte la distribution des décisions et la délégation des responsabilités. Ce qui conduit à faire des produits et services « as simple as possible but no simpler », ce qu’Apple et Google ont bien compris.

dimanche, mai 25, 2014

Organisations scalables face à la complexité


Le billet de ce jour contient différentes réflexions autour des interactions entre la complexité et la taille des organisations, avec un axe particulier autour  du concept de « change tolerant organization ». Autrement dit, quelles sont les structures d’organisations capables de concilier les capacités à grandir et à s’adapter continuellement à l’organisation ?  Il y a bien une tension entre ces deux objectifs : les structures agiles et auto-organisées semblent avoir du mal à passer à l’échelle (et en particulier lorsque leur taille dépasse le nombre de Dunbar), tandis que la structure hiérarchique qui est le modèle historique de l’organisation scalable a montré ses limites en termes de capacité d’adaptation.

1.  Quelle organisation pour l'entreprise on-demand ?

Il y plus de 10 ans, IBM a introduit son modèle de l’entreprise « on demand ». J’étais DSI de Bouygues Telecom à cette époque, et cette vision d’une entreprise parfaitement synchronisée avec son marché et son environnement au travers de ses processus et d’une boucle homéostatique de mesures et réaction m’a en premier lieu semblé très séduisante. Le modèle de l’entreprise « on demand » s’appuie sur le BPM (Business Process Management), poussé jusqu’au bout de sa logique. Tous les processus métiers de l’entreprise sont intégrés dans le système d’information, avec une double capacité à mesurer le déroulement et les performances du processus, et à agir sur le processus pour modifier ce qu’il produit. A l’époque où je commençais à réfléchir à l’implémentation du BPM, j’ai considéré le modèle « on demand » comme une cible ultime, un « point de fuite ».

Le schéma suivant est tiré de mon premier livre, « Urbanisation, SOA et BPM ». Ce schéma est construit autour de la « chaîne de valeur du BPM », c'est-à-dire les étapes qu’il faut maîtriser pour faire fonctionner ce modèle. Il est pensé en termes de modèle de maturité, c’est pour cela que l’on trouve un petit thermomètre associé à chaque étape qui indique les niveaux de maturité successifs pour la maîtriser. L’exigence « on demand » se traduit par la nécessité d’obtenir la maturité complète sur l’ensemble des maillons de la chaîne. C’est un défi transverse, depuis la stratégie de l’entreprise jusqu’à son exécution en passant par son système d’information. Je vous renvoie au chapitre 11 pour plus d’explications.

 Très rapidement après avoir produit ce schéma, j’ai commencé à l’utiliser de façon négative, pour montrer à quel point il était difficile d’atteindre cette cible. C’est par exemple ce que j’ai fait il y a quelques années dans mon cours à Polytechnique. Ce modèle de maturité est devenu l’illustration que l’approche d’organisation « top-down », autour des processus métiers et des capacités de l’entreprise, qui est éminemment scalable, était trop complexe pour devenir auto-adaptative.

J’ai « pivoté » à la fin 2006, et j’ai commencé à m’intéresser à la question sous l’angle « bottom-up », c’est-à-dire en concevant l’homéostasie (l’adaptation continue au changement) comme une propriété émergente, ce qui m’a conduit à m’intéresser au Lean Management et à Toyota.

2. L’organisation des « Géants du Web »


Le paradoxe 10 ans plus tard est que certaines entreprise du monde numérique ont précisément réalisé l’ambition de l’entreprise « on demand ». Je vous renvoie par exemple à la lecture de deux livres que j’ai cités récemment : « The Age of the Platform » et « Les Géants du Web ». En s’appuyant sur des mesures continues et une boucle d’exécution très courtes, ces entreprises digitales (qu’ils s’agissent des géants de GAFA ou des startups du numérique) sont capables d’allouer leurs ressources de façon continue et d’adapter leurs processus et services pour mieux rencontrer les besoins de leur clients.

Lorsqu’on montre ceci point par point à un « DSI classique » tel que je l’ai été, la réaction naturelle est de dire « oui, mais ce sont des processus beaucoup plus simples » … C’est exactement la clé du raisonnement (« that’s the point ») ! La réactivité « on demand » exige la simplicité. Bien sûr cette idée est partout :

Le schéma qui décrit l’organisation « on demand » devient beaucoup plus simple :
  1. Un « service factory » qui est une usine logicielle agile,
  2. Un « service » entre les mains du client, qui est instrumenté de telle sorte à capturer de façon continue les usages et la satisfaction des clients
  3. Une boucle de rétroaction qui couple les deux

Les ingrédients pour faire fonctionner cette organisation sont également connus :
  • Une vraie culture de la mesure, pour implémenter le cycle PDCA cher à Deming. Je vous renvoie une fois de plus au livre d’Octo, mais également à mon dernier livre. Il ne suffit pas de mesurer pour  être efficace, c’est toute une culture du « test and learn » qui est nécessaire.
  •  Un fonctionnement de l’équipe de développement selon un principe de « lean software factory » qui combine les principes des méthodes agiles et la mise en production continue de DevOps.
  • La simplicité (qui est ici une notion toute relative) de ce que l’on fabrique, afin d’accélérer le cycle de fabrication et modification incrémentale, et également afin d’augmenter la pertinence du cycle PDCA (la simplicité est ce qui rend possible le « pilotage par les faits et non par les opinions »). On retrouve ici les points clés du « Lean Startup »


3. Complexité et effet d’échelle

Pour comprendre les effets intéressants de la complexité sur l’organisation, il est utile de repartir du cas simple (voir théorique) de l’organisation pyramidale/hiérarchique. Dans un monde compliqué, l’organisation hiérarchique traduit la structure de l’activité : ce qui est compliqué se décompose en un grand nombre de choses plus simples. Le principe de l’organisation  hiérarchique est la décomposition (d’une tâche en sous-tâche) et la délégation. Chaque sous-organisation est (raisonnablement) indépendante des autres.

La complexité se produit lorsque les relations apparaissent entre les sous-tâches (et donc les sous-organisations). On doit donc passer de la délégation au consensus. Dans un monde compliqué le rôle du chef hiérarchique est simple : il s’agit de déléguer à la bonne personne. Dans un monde complexe, ce rôle est difficile, puisqu’il faut « aligner » les sous-organisations, c'est-à-dire produire un « consensus » (que ce soit de façon participative ou autoritaire). C’est bien pour cela que la multiplication des réunions est un symptôme de la complexité : il faut organiser cette maïeutique du consensus.

De façon schématique, la production d’un consensus est un processus qui part de N points de vue et en fabrique un nouveau, en fonction d’objectifs communs et des objectifs individuels.  On s’attend à retrouver dans les objectifs communs du groupe ceux de l’entreprise et en particulier le but commun à l’équipe (un des principes fondamentaux de la nature est que la coopération résulte d’un objectif commun). Les objectifs individuels, qui sont souvent liés à la culture de l’entreprise (volonté de pouvoir, soif de reconnaissance …), jouent également un rôle clé dans la dynamique du consensus. Ce consensus peut être évalué selon deux axes : le périmètre et la solidité. Le périmètre s’exprime comme un ratio entre le nombre de questions/problèmes traités dans l’énoncé du consensus sur celui de l’ensemble des opinions fournies au départ. Un score (utopique) de 100% est une synthèse parfaite qui couvrent l’ensemble des points abordés, tandis qu’un score de 10% correspond à la situation (fréquente) où le résultat ne contient plus qu’une petite partie des sujets qui posent question. La solidité du consensus traduit l’appropriation : la mesure la plus simple étant une mesure de la probabilité que chaque participant se désolidarise plus tard de l’énoncé de la décision prise par consensus.

Cette petite digression sur ce qu’est la création d’un consensus était nécessaire pour formuler les trois observations suivantes que je vais pompeusement élever au titre de principes dans la suite du raisonnement :
  1. Plus l’objet du débat est complexe, plus il est facile de briller par la dissension et la critique, et plus il est difficile d’apporter une contribution positive (la complexité augmente le champ de la contradiction, et elle rend plus fragile toute proposition constructive).
  2. Plus l’objet du consensus est complexe, plus le nombre d’interaction entre les parties prenantes du consensus augmente (le même principe que la Loi de Metcalfe, mais vue de façon négative).
  3. Lorsque le consensus porte sur un sujet complexe, le contrôle des conséquences de la décision devient de plus en plus illusoire, et la confiance entre les parties prenantes devient essentielle.

La troisième observation rejoint la thèse de mon livre favori de Kevin Kelly « Out of Control » : la complexité entraîne la perte de contrôle et crée de la sorte un besoin de confiance. Ces trois règles peuvent sembler n’être que de simples observations de bon sens (c’est vrai :)). Mais elles permettent de déduire deux choses.

La première chose est une règle sur la taille des équipes. La conséquence de ces trois principes est que plus la complexité augmente, plus la taille de l’équipe N devient un handicap pour le consensus. Plus précisément, on observe lorsque N augmente une dégradation à la fois du périmètre et de la solidité du consensus. C’est exactement ce que dit le deuxième principe.  Pour ce qui est du troisième principe, il faut le combiner avec une observation sociologique (cf. Les Décisions Absurdes) qui veut que la confiance comme le sentiment de responsabilisation baisse avec le nombre des participants. Le premier principe contribue également à cette loi, que je vais appeler « Loi des interactions », en vertu de la constatation qui veut que le temps de parole disponible en réunion pour chaque participant baisse en fonction de N.

Pour représenter cela, je vous propose un diagramme de phase, selon deux dimensions, la complexité du sujet et le nombre de participants. La « Loi des interactions » détermine que le nombre efficace de participants baisse en fonction de la complexité, ce qui revient à éliminer une partie de l’espace (le triangle rouge sur le dessin). Il existe une autre loi bien connue, la « Loi de la Variété » qui veut au contraire qu’on ait besoin d’un nombre croissant de points de vue pour résoudre un problème complexe. Ceci conduit à la courbe bleue et au triangle correspondant. La représentation linéaire est approximative, la réalité est probablement une courbe plus complexe. L’intérêt du diagramme de phase est de pouvoir représenter visuellement « la complexification progressive de notre environnement ». Je l’ai représenté sur le schéma avec deux traits pointillés correspondant à 1980 et 2010, pour illustrer que les formes de toute petite équipe ou de grandes équipes ont pu fonctionner dans le passé, mais ne sont plus adaptées aux défis d’aujourd’hui.





La deuxième conséquence porte sur la culture d’entreprise nécessaire pour favoriser l’émergence des bonnes décisions par consensus. On pourrait dire en paraphrasant Einstein que le consensus doit faire intervenir le moins de personnes possible, mais pas moins. Autrement dit, il ne faut pas ignorer les effets de la loi sur la variété des points de vue, et donc ne pas réduire N au-delà de ce qui est nécessaire. Ce qui conduit donc à énoncer que, dans un environnement complexe, la culture de l’entreprise doit promouvoir la reconnaissance individuelle de l’esprit positif et de l’attitude collaborative dans une réunion de recherche de consensus. Ceci vient de la combinaison des trois principes (en particulier le premier) et du processus de consensus tel que je l'ai sommairement décrit.

4.  Quelle est la structure scalable du réseau d’équipes ?


Le diagramme précédent montre également (ce qui est évident), que l’équipe n’est pas une organisation scalable, et qu’il faut trouver autre chose pour des domaines de plus grande complexité. De fait, il est aujourd’hui communément admis que la bonne structure est un réseau flexible d’équipes. Toute la question est de déterminer quelle est la structure de ce réseau ?  Les objectifs de cette structure sont connus et clairs :
  • L’organisation doit être scalable : la structure du réseau fonctionne à toutes les échelles, de la PME au Groupe, en permettant la croissance, c’est-à-dire le passage d’une échelle à une autre.
  •  L’organisation est adaptative, au sens de Peter Senge, elle est donc apprenante. Ceci conduit logiquement au principe d’auto-organisation.
  • L’organisation est un support de l’écoute continue de son environnement par l’entreprise. La structure est donc adaptée aux flux d’informations qui sont nécessaires à son fonctionnement (un des sujets favoris de ce blog)
  • L’organisation supporte un fonctionnement « on demand », c’est-à-dire une réaffectation dynamique de ses ressources en fonctions des opportunités de son environnement. J’aurai également pu écrire, ce qui n’est pas très différent, « un fonctionnement lean » c'est-à-dire en flux tirés à partir des besoins du client.
Disons tout de suite que je n’ai pas la solution du problème, mais qu’il me semble clair que cela passe par une structuration dynamique et fractale du réseau d’équipe. Commençons par le plus évident,  un réseau « à plat » sans structure (avec des échelles différentes) n’est pas une solution. Le réseau plat, qu’il s’agisse d’une grille, d’un maillage bidimensionnel (et planaire, au sens des graphes) d’une surface, d’un graphe aléatoire … n’a pas les bonnes propriétés. Les temps de propagations de l’information augmentent de façon linéaire avec la taille de l’entreprise, ce qui n’est pas acceptable.  Je cite très souvent l’approche BetaCodex car je la trouve extrêmement intéressante (je partage 90% du diagnostic sur la complexité) mais je suis en désaccord sur la structure fondée sur la métaphore de la cellule avec sa membrane.

Ce que la science des systèmes complexes nous apprend est qu’il est nécessaire d’introduire des hiérarchies pour gérer la complexité. Sur ce point, je suis tout à fait en accord avec Bob Sutton, un des auteurs de « Scaling Up Excellence ». La structuration hiérarchique apparaît presque automatiquement, y compris dans des organisations sous formes de cercles concentriques, ou encore sous forme de cercles de différentes tailles avec différentes intersections.  Il ne faut juste pas confondre organisation hiérarchique et pyramidale. Dans le premier cas, il s’agit juste d’utiliser les principes d’abstraction et d’encapsulation pour faire émerger différents niveaux de compréhension et d’abstraction. Dans le second cas, on rajoute des informations sur le contrôle, qui est implicitement du haut (abstrait) vers le bas (concret). Une organisation moderne, telle que je l’esquisse sous le terme d’entreprise 3.0, a distribué le contrôle et n’est clairement plus pyramidale. Ceci ne s’oppose pas à une organisation récursive, donc hiérarchique.

L’approche « Holacracy »  considère que c’est le but (à savoir la chose à faire) qui tire l’organisation de l’entreprise, ce qui est une application du principe de l’holomorphisme des systèmes complexes. On peut donc alors penser que si l’objet de l’organisation holacratique est complexe, il a besoin d’être décrit de façon structurée et hiérarchique, ce qui conduit naturellement à une organisation hiérarchique. Cela peut surprendre puisque « holacracy » est assimilée à « organisation plate sans chef », mais (a) une structure hiérarchique ne signifie pas « chefs et contrôle top-down » (b) le besoin de l’émergence de structure est une question de taille.

On commence à voir émerger un modèle de structure récursive avec un contrôle distribué, mais ceci n’est pas suffisant pour obtenir les caractéristiques de résilience et d’adaptabilité que nous avons postulée. Il est également nécessaire, si l’on suit les intuitions que développent l’étude des systèmes complexes et des réseaux sociaux, que le réseau évolue dynamiquement avec une structure de type « scale free », c'est-à-dire une distribution des degrés de connexion entre les équipes qui présente une « longue traine ». Autrement dit, l’organisation du réseau d’équipe n’est pas homogène et fait apparaitre des rôles de connecteur. C’est d’ailleurs précisément un des rôles des managers dans une grande entreprise. Les différentes tentatives de suppression et d’organisation « hyper-plate » se sont soldées par des échecs. On peut également penser à ce qu’écrit Malcom Gladwell dans « The Tipping Point ».

Une telle structure de réseau d’équipe est probablement plus « cultivée » que « construite », pour reprendre les termes de Kevin Kelly. Ce sera pour un prochain billet.






mardi, avril 01, 2014

Grenelle de l'environnement III : enfin un pack législatif avec de l'audace !



J’ai profité de cette période de repos entre deux jobs pour retourner à la conférence CASPI à laquelle j’avais déjà assisté l’an dernier. J’ai participé à une session fort intéressante sur la mise en œuvre des préconisations du Grenelle de l’environnement. Apres Grenelle I et Grenelle II, l’objectif des débats était de définir les contours d’un Grenelle III, en appliquant les méthodes de la systémique pour promouvoir un pack législatif plus efficace.

L’esprit de Jeremy Rifkin et de son livre « La troisième révolution industrielle » planait sur cette conférence. J’ai rencontré Mick Tesys, un ancien élève de Rifkin, qui est maintenant un conseiller de Cécile Duflot. L’ancienne ministre prépare depuis quelques mois sa sortie du gouvernement. Mick a été formé au Washington Center for Complexity and Public Policy, dont la devise est “Strategic Thinking in a Complex World” (avec la declaration suivante que les lecteurs de ce blog apprécieront:  “the work of the Center is based on the premise that insights from complex systems research—complexity science—provide a powerful new theory-driven framework for developing insight about the present and foresight about the future”.)

Mick est en train de développer un pack législatif pour un Grenelle III qui s’appuie sur l’analyse systémique des limites des Grenelles précédents. Son travail s’inscrit dans un programme européen 40/40/40 qui est une proposition pour aller beaucoup plus loin que le plan 20/20/20 actuel. Les « trois 40% » sont :
  • Réduction de 40% des émissions de CO2 d’ici 2025 (ce qui est un objectif ambitieux vu que les chiffres 2012 ne sont pas bons).
  • Augmentation grâce aux outils réglementaires du prix de 40% de l’électricité d’ici 2025 (pour favoriser les sources d’énergie propres).
  • Réduction de 40% de la consommation énergétique Européenne d’ici 2025, pour moitié par une augmentation de l’efficacité énergétique et pour moitié par une politique de réduction de l’activité économique énergivore, dans un souci de réduire la pression sur la planète.

Mick Tesys a fait un très bon exposé lors de la session dont je viens de parler, son plan a été considéré comme une approche crédible pour atteindre les objectifs ambitieux de ce nouveau programme Européen. Je vous livre ici les 6 points principaux de sa proposition :

 (1) Renforcer de façon systémique la pertinence de l’énergie éolienne.
Le coût de production de l’énergie éolienne aujourd’hui est encore trop élevé, et pour un certain temps, surtout si l’on intègre les perspectives de prix des hydrocarbures qui sont très différentes de ce qui était prévu à l’époque du Grenelle I (2007). La solution est donc de continuer à taxer l’électricité, nucléaire ou fossile, pour d’une part subventionner les sources vertes et d’autre part réduire le différentiel de coût. A ceux qui ont objecté que cette politique conduisait à ne pas être compétitive en matière de data centers, Mick oppose une politique de « digital detox ».  Son cabinet prend très au sérieux les menaces que « Google nous rendrait idiot ». J’ai développé ce sujet dans un billet précédent, et on peu lire avec intérêt « The Shallows » de Nicholas Carr. L’abus de la connectivité permanente, de l’hyper-navigation et des smartphones limite notre attention et notre capacité à apprendre. Le plan proposé par Mick inclut la limitation à un seul objet portable (smartphone ou tablette) par français, en s’appuyant sur un numéro unique contrôlé par le GIE portabilité.  « Le digital detox est une opportunité de compétitivité culturelle pour la France » a expliqué Mick, en ajoutant qu’il fallait bien sur interdire les tablettes à l’école pour se concentrer sur l’enseignement des mathématiques, du français et du latin.


(2) Promouvoir l’énergie solaire en réduisant le besoin de recours au stockage.

Le coût de stockage de l’énergie reste très cher, et toute forme de production d’électricité qui s’appuie sur du stockage à cause de son intermittence est condamnée pour l’instant à ne pas être rentable, en dehors des très courtes périodes de pics pour lesquelles les prix de marchés peuvent être plus élevés. Le stockage local, à base de batteries, est particulièrement cher (plus de 150$ par MWh), tandis que les solutions globale, par exemple de type STEP, nécessite de construire des nouveaux réseaux entre les lieux de stockage et les lieux de production. La solution systémique proposée par Mick Tesys est de déplacer la demande par une politique tarifaire qui favorise la consommation diurne. Dans son plan, le coût de l’électricité serait multiplié par 4 dès que le soleil tombe, avec une péréquation pour réduire le cout pendant la journée. En bon disciple de Jeremy Rifkin, il voit dans les technologies de compteur intelligent du Smart Grid la possibilité de déplacer la demander avec de la tarification dynamique.

(3) Favoriser la voiture électrique grâce à la règlementation urbaine.

Le coût élevé des batteries reste un grave handicap pour l’essor des voitures électriques. Compte-tenu des durées de vies limitées, la propulsion électrique dont l’énergie sort d’une batterie est difficilement compétitive avec les moteurs thermiques modernes, surtout sous une forme hybride. Comme il existe en revanche un avantage en dehors de la batterie (le groupe propulseur électrique coûte moins cher qu’un ensemble moteur thermique et boite de vitesse), l’analyse économique de Mick Tesys montre qu’il existe deux configurations rentables : la petite voiture urbaine avec une faible batterie (le gain sur le coût du moteur compense partiellement le prix de la petite batterie) ou les voitures haut de gamme, de type Tesla S,  pour lesquelles le prix de la grosse batterie est « caché » dans un ensemble d’équipements de prestations. Pour la voiture moyenne, la rentabilité de la propulsion électrique n’est pas là, ce qui explique les résultats décevants de Zoe.  La solution systémique est donc également de déplacer l’équilibre des avantages/inconvénients grâce à la régulation.  Le plan « Grenelle III » comporte deux mesures : (a) nouvelles limitations de vitesses : 100km/h sur autoroute, 70 km/h sur route et 30km/h en ville ; (b) la décision de réserver à partir de 2017 les centres villes aux véhicules électriques (« zéro émission »). La simulation effectuée par le LMSCAI (Laboratoire de Modélisation de Systèmes Complexes à base d’Agents Intelligents) montre que dans ces conditions, le parc de voitures électriques pourrait atteindre 50% en 2020.

(4) Accompagner la transition énergétique par une véritable politique sociale

Mick Tesys est d’une grande lucidité sur les impacts de son plan, il déclare « Notre politique en faveur d’une énergie chère va produire de la décroissance industrielle ».  C’est un véritable choix de société, il faut apprendre la frugalité aux Français. Pour que cette transformation soit juste, elle doit donc d’accompagner d’une taxation sociale à l’usage. Mick a présenté une proposition de tarification qui s’appuie sur un prix « social » pour la fraction de consommation en eau, chauffage et électricité qui correspond à une consommation frugale d’un individu modéré. Le tarif augmente ensuite sensiblement, pour atteindre un niveau maximal qui intègre une taxe carbone de 250€/t pour les familles aisées. Le débat sur l’équité par rapport aux familles nombreuses n’a pas eu lieu,  le plan Grenelle III comporte une proposition de formation d’inspiration Malthusienne dans les écoles pour décourager les familles nombreuses et réduire la pression sur la planète (empreinte écologique). Devant une audience qui lui était acquise, Mick a déclaré : « Il faut s’inspirer de l’exemple chinois, et également proposer des modèles alternatifs de famille qui conduisent à la décroissance naturelle de la population ».


(5) Profiter de l’essor des objets connectés pour faire de la France un modèle de civisme contrôlé.

La conférence a été l’objet d’un long débat sur la vitesse de pénétration des solutions de  « Smart Home » et de capacité d’avoir des « chauffages intelligents » couplés avec les « Smart Grids ». Mick travaille avec le cabinet de Fleur Pelerin pour mettre un boitier Netatmo chez tous les français. « Nous devons profiter de l’avance de la France dans le domaine des objets connectés et installer un compteur de calories connectés dans tous les foyers ». Bien avant l’arrivée des chauffages intelligents de 3 ème génération, ces objets intelligents peuvent servir d’instruments de mesure et de contrôle, en faveur d’une vaste politique de frugalité calorique. Il s’agit de reprendre le principe des radars automatiques et du permis à point. Chaque boitier est capable de détecter une température anormalement élevée et d’envoyer automatiquement par email (pour éviter la déforestation, il faut faire mieux que les amendes liées aux excès de vitesse) un procès-verbal d’excès de chauffage. Chaque foyer dispose d’un permis à points, pour mettre en place une boucle d’apprentissage avec feedback. Mick Tesys a commenté les expériences de Smart Grids en Corée, qui  montrent un effet rebond : la plus grande efficacité énergétique est utilisée  par les habitants pour obtenir un plus grand confort thermique. L’intérêt de l’utilisation des TIC (objets communicants) est de permettre au régulateur d’éviter ces comportement déviants et peu civiques.



(6) Inscrire la consommation responsable dans un grand programme de E-santé
Parmi les différents gaz à effet de serre, le méthane est particulièrement inquiétant, puisque son PRG (potentiel de réchauffement global) est 25 fois supérieur à celui du dioxyde de carbone. Mick souhaite sensibiliser l’opinion publique sur les ressources nécessaires pour produire un kilo de bœuf, comparées à celle nécessaires pour produire un kilo de protéines végétales, ainsi qu’aux externalités négatives telles que la production de méthane. Dans le cadre du volet « consommation responsable » de son programme législatif, il instaure une taxe sur la viande de bœuf et sur les pâtisseries au beurre. Pour renforcer l’éducation des nouvelles générations, il est également proposé d’instaurer un régime végétarien obligatoire dans l’enseignement supérieur, « une fois que les élèves on terminé leur croissance ». En revanche, parce qu’il a lu Kahneman, Mick Tesys réduit les taxes sur le sucre et le chocolat. En effet, il est scientifiquement prouvé que le sucre nous rend plus créatifs et plus collaboratifs, « ce qui est indispensable pour mettre la France en avant de l’économie numérique et du savoir ».  Ce volet de consommation responsable contient de nombreuses mesures destinées à améliorer la santé de nos concitoyens. Par exemples, la TIPP s’appliquerait aux huiles de consommation (ce qui supprime le problème des agriculteurs qui roulent à l’huile de colza) et aux spiritueux (pour réduire le problème de l’alcoolisme en France). Ce programme instaure aussi une mesure annuelle du cholestérol pour tous, et une indexation de la CSG sur ce taux de cholestérol. Je cite : « Il ne s’agit pas de matraquer les français avec une nouvelle taxe, mais d’améliorer les connaissances et la prise de conscience de tous ». La vocation de ce programme est de s’effectuer par auto-mesure grâce aux progrès constants en matière d’objets connectés portables. Le fléau de l’augmentation de l’obésité doit être adressé, et cette mesure systémique est de nature à renverser la tendance, en s’appuyant sur un indicateur qui est justifié d’un point de vue médical.


Il est clair que les propositions de Mick Tesys ne sont pas forcément populaires, mais on ne peut être que frappé par la cohérence de ce programme.  Ce travail a donné lieu à un article dans le Journal on Policy and Complex Systems. Il s’appuie sur le principe de « Irritant Homeostasis » qui postule que si l’environnement devient irritant, il faut irriter les citoyens. C’est d’ailleurs ce principe qui est utilisé à Paris pour faire évoluer la circulation automobile.
C’est également une belle illustration de la « Systemic Attitude »,  le fait de travailler sur les causes profondes et de proposer des législations qui vont profondément changer nos habitudes.