dimanche, juillet 19, 2015

La pratique du Lean Startup et du Growth Hacking dans l’entreprise



1. Introduction


J’ai fait du Lean Startup  un guide méthodologique de ma pratique de l’innovation numérique, chez Bouygues Telecom il y a quelques années et chez AXA aujourd’hui. Le livre d’Eric Ries est ma référence, mais de nombreux nouveaux livres sont parus depuis sur l’application pratique de la méthode et sur l’utilisation en entreprise. J’ai déjà mentionné le livre de Trevor Owens et Obie Fernandez, « The Lean Entreprise », aujourd’hui je vais consacrer ce billet à deux livres que j’ai lus récemment, « The Innovator’s method – Bringing the Lean Startup into your organization » et « Running Lean – Iterate from Plan A to a Plan That Works ». Lors d’un précédent billet sur l’entreprise 3.0, j’avais noté que les idées fondamentales de « l’entreprise libérée » se retrouvaient « partout », c’est-à-dire dans un très grand nombre de livres différents, mais parus récemment. La même remarque peut être faite au sujet des principes du Lean Startup, qui se retrouvent dans la plupart des livres récents qui parlent d’innovation dans le monde numérique. C’est certainement le cas pour deux « bestsellers » que je viens de terminer : « How Google Works » de Eric Schmidt & Jonathan Roseberg, et « From Zero to One » de Peter Thiel.

Il n’y a pas simplement une dissémination des idées et une intensification de leur popularité, il y a une maturation sur ce que signifie l’intégration du Lean Startup dans des entreprises matures, par rapport aux startups, et sur la façon de pratiquer. Comme toutes les transformations complexes, introduire le Lean Startup se fait par la pratique. J’ai choisi de commenter « The innovator’s method » car c’est ma nouvelle référence, mon livre préféré sur le sujet, parce qu’il est global et couvre l’ensemble du domaine de l’innovation numérique. En particulier, il fait une synthèse entre les précédents bestsellers de l’innovation et les idées plus nouvelles apportées par le Lean Startup. J’ai écrit récemment un article « L’entreprise numérique et l’innovation » pour la revue « Economie et Management », et je retrouve un alignement complet avec le livre de Nathan Furr et Jeff Dyer. Mon deuxième choix, celui de « Running Lean » d’Ash Maurya, est pour une raison opposée : ce n’est pas un livre conceptuel ni riche en histoire, mais c’est un merveilleux guide pratique. C’est clairement le meilleur livre que je connaisse pour pratiquer le Lean Startup, depuis le début – la définition du problème à résoudre – jusqu’à la phase de développement de l’usage, ce qu’on appelle le « Growth Hacking ». « Running Lean » donne un certain nombre de clés (métriques et principes) pour cette phase du co-développement de l’innovation avec les utilisateurs, à laquelle je consacrerai la dernière section de ce billet.

2. The Innovator’s Method


Le livre de de Nathan Furr et Jeff Dyer, « The innovator’s method », est très agréable à lire et je vous recommande donc sa lecture avec insistance. En particulier, la qualité narrative des anecdotes illustratives est remarquable – ce que je ne fais pas dans ce blog faute de temps J. Ici je vais me contenter de relever quelques points clés du livre,  qui touchent à la pratique du Lean Startup.


  • Le livre s’articule autour d’un schéma en quatre phases que j’ai reproduit ci-contre : (1) insight, (2) problème, (3) solution, (4) business model. La première phase est celle de l’intuition créative, celle où on identifie une idée qui pourrait être utilise, c’est-à-dire résoudre un problème et apporter de la valeur à un groupe de clients potentiels. La seconde phase est celle de la formalisation et validation du problème qu’on veut résoudre. La troisième étape est la réalisation du Minimum Viable Product. La flèche circulaire bleue de l’illustration exprime que cette décomposition n’est pas stricte et linéaire, il existe des interactions et des allers-retours. La dernière phase est la phase de croissance, celle où on développe l’usage et on construit le business modèle. Cette structure n’est pas différente de ce qu’on retrouve dans le livre d’Eric Ries, mais elle permet de mieux faire ressortir (cf. schéma) les liens avec les phases/pratiques de l’innovation : créativité, design thinking, développement agile, etc.

  • Le cœur du livre s’articule sur les principes du Lean Startup : résoudre un pain point, aller au plus vite vers le client pour tester sa solution, mesurer, pivoter si besoin, et surtout itérer. On retrouve des citations telles que celle-ci : « No one can foresee the problem when you face uncertainty. It’s all a guess, and there’s only one way to discover whether it’s right or wrong: by testing it in the market”.
      
  • Les auteurs s’appuient beaucoup sur l’expérience d’Intuit, en particulier pour expliquer la phase de caractérisation de problème. C’est un message fondamental et commun aux deux livres de ce billet : il ne faut pas se lancer dans le design et la réalisation de la solution sans avoir bien caractérisé le problème, c’est-à-dire les « pain points » que l’on souhaite résoudre. Although it may feel “slower” to start with the customer problem rather than the solution, you save time by deeply understanding the customer’s job-to-be-done”. Ce livre parle du concept intéressant de « pain-storming », l’application des méthodes de brainstorming à la caractérisation de ces pain-points : « The purpose of a pain-storm is to get crisp on what we think the problem is so we can test our hypotheses ». « Pain-storming involves creating a customer’s journey line to understand how customers now complete a task and identify their main pain points (and emotions) along the way ».
      
  • Un autre exemple tiré d’Intuit est la création de Labs (Intuit Labs) pour donner un accès direct à des “vrais clients” aux équipes d’innovation. L’accès aux clients est souvent une barrière infranchissable dans de nombreuses grandes entreprises en France. Pourtant, tous les livres que j’ai lus depuis 10 ans disent la même chose. Je cite celui-ci : « Teams need to run experiments with potential customers if they hope to discover the job-to-be-done and then nail the solution. Providing quick and easy access to various types of customers can facilitate rapid experimentation”. Cet accès doit avoir lieu le plus tôt possible, avant que la solution ne soit développée, sous la forme d’un site Web qui permet de faire des “smoke tests” (faire croire que le produit existe pour recueillir des premières réactions) : « To perform a smoke test, create a web site, advertisement, phone number, or other channel that describes the problem, theoretical solution, and provides an option to « learn more », « buy now », « reserve now » or some other call to action ».
      
  • Une mention très intéressante est faite de l’utilisation de la simulation pour valider des fonctionnements systémiques avant de construire une solution. L’exemple fournit est celui d’Amazon qui utilise la simulation pour comprendre et optimiser des questions de chaine d’approvisionnement.
      
  • La création de la solution est un processus itératif qui produit un MAP (Minimum Awesome Product). Le choix de cet acronyme souligne le fait que le MVP est plus que « viable », il doit être formidable. Ce point est très clairement expliqué par Ash Maurya (voir section suivante) : Le MVP est minimum parce qu’il embarque peu de UVP (Unique Value Proposition), mais il est formidable parce que chaque UVP doit l’être. Une erreur classique de l’application du Lean Startup est de faire des compromis sur ce qu’apporte le MVP pour aller vite (selon le principe du « fail fast »). Le MVP est minimal dans son contenu (le plus petit ensemble d’UVP nécessaires pour résoudre le pain point), mais il doit être « awesome » -sinon « fail fast » devient une certitude, et non pas un principe :). Je cite : « Some 90 percent of initial proposals don’t nail the solution to a significant problem. This explains why it’s folly to start by building a product or service before you discovered how it falls short”.
      
  • Cette citation illustre un des principes clés du livre “Nail it, then scale it”. Avant de consacrer du temps et de l’argent à faire croitre sa base client, il faut s’assurer que la solution a bien « résolu » (nail) le problème identifié. Les auteurs suggèrent l’utilisation du NPS (Net Promoter Score) comme métrique, et de vérifier qu’on a dépassé la valeur 10 avant de vouloir faire grandir la base client : « So start by shooting for a 9 or 10 NPS score with 10 people, and then you can think about progressing to the hundredth ».
      
  • Une des histoires les plus passionnantes, en plus de l’histoire introductive que je vous laisse découvrir, est celle de ChotuKool. Il s’agissait de créer un réfrigérateur pour le marché de l’Inde. Passé la première idée de faire un frigo « comme d’habitude mais plus petit et moins cher » (une idée « top down » qui a échoué face aux contraintes pratiques), les auteurs racontent la démarche d’ethno-marketing, consistant à aller sur place pour vivre la vie des futurs clients, heure par heure, pendant quelques jours. Cette partie m’a rappelé un exposé passionnant que j’avais entendu il y a 10 ans sur l’utilisation de cette pratique d’ethno-marketing chez Leroy-Merlin, et sur comment le fait de « vivre la vie » de quelques clients (artisans pros) avait permis de détecter des signaux faibles que l’analyse des tickets de caisse par Big Data (déjà) n’avait pas trouvé. La section « Ethnography to Explore Assumptions » est une des plus intéressantes, avec de multiples conseils pour observer et comprendre les futures clients.  
  • La fin du livre est consacrée au « Business Model Canvas », qui présent un recouvrement important avec le « Lean Canvas » dont je vais parler dans la prochaine section. Il y a cependant des contributions propres, sur les méthodes de fixation des prix et sur l’analyse des facteurs d’influences sur les clients. Par exemple, « Influencers fall into four categories : experts such as product reviewers, thought leaders, or products evaluators ; peers such as bloggers, coustomer reviews, and forum discussions ; media and press, whose attention shapes customer perception ; and reference customers, who create legitimacy and comfort with your solution in customer’s minds ».
      
  • On trouve dans le livre un chapitre consacré à « L’art du pivot ». La section page 172 est particulièrement intéressante et constitue un bon ajout au livre d’Eric Ries, avec beaucoup de conseils pratiques, fondés sur des métriques. Je vous recommande également dans ce chapitre l’histoire de Aardvark, qui illustre la tension entre la mission de la startup (ou du produit) et le feedback des utilisateurs. Dans le cas d’Aarvark, les demandes clients étaient en conflit avec le « positionnement stratégique » du produit. Ceci a causé un délai trop long pour prendre en compte certaines demandes … et a fait perdre une opportunité face à un concurrent. Je suis sensible à ce témoignage car c’est une situation que j’ai déjà vécue. Les témoignages des premiers utilisateurs sont plein de « pépites », mais qui sont souvent rejetées pour des raisons dites « stratégiques » alors que ceux qui fabriquent le produit sauraient parfaitement réaliser ces évolutions.
      
  • Pour conclure, j’ai également beaucoup apprécié les remarques sur les réunions et la bonne façon de les conduire. Ce petit exemple est un parmi une multitude de références implicites à la culture « Entreprise 3.0 / Entreprise libérée » que l’on trouve dans ces livres sur l’innovation. Les auteurs proposent 4 modèles de réunions : (1) les « All-hands meetings », informels qui impliquent tous les acteurs du projet ; (2) les meetings quotidiens de synchronisation, tels que les « stand-up meetings » ; (3) les « skip-level meetings » - qui permettent aux seniors managers d’appendre par le contact direct et sur le terrain avec ceux qui réalisent le produit (une version affaiblie des gemba walks) et (4) les réunions avec des acteurs externes, pour obtenir un point de vue neuf et iconoclaste sur le déroulement du projet.

3. Running Lean


“Running Lean” de Ash Maurya est disponible depuis 2012 (2010 pour la première éditition en e-Book). Dès le début, il a rencontré un grand succès aux Etats-Unis avec des critiques très positives. Je l’ai feuilleté dans une librairie en 2013 et je me suis dit « pas beaucoup de contenu, je connais déjà tout cela … ».  Maintenant que je l’ai lu en détail, je me rends compte de mon erreur. Ce livre est une véritable mine d’or pour la mise en pratique du Lean Startup. Il ne cherche pas à vous convaincre d’adopter le Lean Startup, il y a d’autres livres pour cela, celui d’Eric Ries ou « The innovator’s method » par exemple. « Running Lean » est un « how to guide », dans la grande tradition américaine. Je vais me livrer à mon exercice favori de rapporter les points essentiels que j’ai noté, mais c’est contre-indiqué, puisqu’il s’agit de pratique. « Running Lean » est un livre qui se met en oeuvre, une suite de choses à faire. Le meilleur conseil que je puisse donner, et que je suis en train de m’appliquer, est de partir d’une vieille idée qui dort dans un coin du cerveau et de passer les étapes et les outils les uns après les autres.  Le message principal est le même que précédemment : il faut travailler sur le problème, sans relâche, avec des utilisateurs, pour être sûr qu’on travaille sur la bonne question. Pour reprendre une citation de Ash Maurya :  “Life is too short to build something that nobody wants”.
  • En particulier, l’outil central, le lean canvas, est une pratique qui doit devenir obligatoire dans le monde de l’innovation numérique : « A single page-page business model is meach easier to share with others, which means it will be read by more people and probably will be more frequently updated ». Le Lean Canvas, dont le schéma est reproduit dans la figure qui suit, est composé des réponses à 9 questions clés, organisées de façon logique. Ce canvas s’insipire de canvas précédents (cf. le Business Model Canvas évoqué précédement) et représente le fruit d’une longue évolution. Vous ne trouverez pas de justification des 9 cases, mais c’est clairement le résultat de l’expérience et de l’itération.



  • Une des cases les plus importantes du canvas est celle des « Unique Value Proposition ».  Le parallèle avec les Unique Selling Propositions (un des classiques du marketing) est évident, mais l’accent est mis sur l’usage, l’expérience et sur l’histoire à raconter au client. Il est d’ailleurs intéressant de noter que la méthode sépare trois domaines : le problème, les USP (histoires qui donnent la légitimité à la solution, qui définissent le « job-to-be-done » pour reprendre les termes de Furr et Dyer) et les features clés de la solution (ce qui concrétise la solution). Trouver ses UVP est un gros travail, qui exige une approche itérative et beaucoup de remise en cause : UVP is hard to get right because you have to distill the essence of your product in a few words that can fit in the headline of your landing page”. Les UVP définissent ensuite une “boussole” pour la réalisation du MVP. Même si  l’agilité donner une souplesse sur comment construire les features, la promesse des UVP ne doit pas être compromise : “The job of you UVP is to make a compelling promise.  The job of the MVP is to deliver that promise”.
  • Une section intéressante traite de l’organisation de l’équipe. Le point de départ est la constatation classique, et que j’ai cité plusieurs fois, qu’il faut assembler dans la même équipe les compétences de marketing produit, de développement et de design (« three must-haves », p. 58). L’organisation proposée s’appuie sur deux équipes : la « problem team » qui est responsable de la définition du problème et des UVP, la « solution team » qui construit le MVP. « The problem team is mostly involved with « outside the building » activities such as interviewing customers …. The solution team is mostly involved with “inside the building” activities such as writing code, running tests, deploying releases, an so on.”

  • La section la plus développée, logiquement, est celle qui porte sur la caractérisation du problème, en particulier en interaction avec des futurs utilisateurs. « The fastest way to learn is to talk to customers. Not releasing code, or collecting analytics, but talking to people”. Le chapitre 6 est très riche et contient des conseils très utiles. Il commence par une section sur les « surveys and focus groups » qui peut sembler dogmatique (si on le prend à la lettre) mais qui me semble pertinent. En deux mots : méfiez vous des « surveys » qui supposent que vous connaissez déjà les questions à poser, et évitez les « focus groups », car vos clients ne peuvent pas formuler leurs besoins (le classique « It's really hard to design products by focus groups. A lot of times, people don't know what they want until you show it to them » de Steve Jobs) et le travail en groupe produit du « group think » qui converge trop vite et passe à côté des pépites. Une fois que l’on a compris que le focus group est là pour capturer le problème et pas la solution, et une fois qu’on se rappelle qu’il faut également des entretiens individuels, il est facile de réconcilier les points de vue. A lire donc pour éviter les erreurs, mais de mon point de vue les focus group restent des bonnes méthodes : en « problem search » et en « prototype validation »  (solution interview – avec ce conseil « “don’t ask customers what they want, measure what they do”). Ce chapitre met également en valeur les apports du Design Thinking  et propose de nombreuses références pour aller plus loin, dont le Human-Centered Design Toolkit de IDEO. On  retrouve ici les mêmes idées que dans l’ethno-marketing : préferer le qualitatif sur le quantitatif (en amont), préférer les signaux faibles et les « insights » aux moyennes et aux « concours de popularité ». Un autre conseil très intéressant est de bien comprendre les alternatives qui existent déjà pour résoudre le problème qui a été identifié. S’il n’y en a pas, le problème n’est probablement pas si intéressant : « a problem with no solution is not worth being solved most of the time”.
      
  • Dans l’esprit d’Eric Ries et la tradition Lean Startup, ce livre insiste sur le fait que les fonctionnalités doivent être tirées par les feedbacks clients et non poussées (« features must be pulled not pushed “). Le même message a été brillamment développé par Jared Spool cette année à USI.  On trouve par exemple ce conseil : Building great software is hard. Give your MVP a chance. First troubleshoot and resolve issues with existing features", qui est parfaitement en ligne avec ce que nous savons sur les analyses de dissatisfaction des applications mobiles. Une métaphore intéressante: « Your MVP should be like a great reduction sauce – concentrated, intense and flavorful »,  qui se combine très bien avec l’importance de l’analyse des émotions et de l’empathie des utilisateurs préconisée dans le livre précèdent.
  • Un des thèmes important du livre est celui des métriques, et en particulier l’utilisation des «Pirate Metrics » (AARRR : Acquisition, Activation, Retention, Referal, Revenue). On trouve dans le livre plein de conseils du type « Retention before Virality » (cf. section précédente), sur lesquels je reviendrai dans la section sur le Growth Hacking. Mais notons tout de suite l’importance de mesurer la viralité des produits, le « referal rate ». On trouve également le slogan « Metrics are People First », qui me semble essentiel : il faut pourvoir comprendre les personnes qui sont derrière les chiffres : « While I am a big proponent of building a metrics-driven culture, there is a lot more to building a great product that numbers. For starters, you have to be able to go to the people behind the number ». Un point très important et bien expliqué est l’analyse par cohorte, qui permet de comprendre les « cycles de vie » des utilisateurs et d’éviter que plusieurs phénomènes se superposent. Ash Maurya fait également référence au Sean Ellis Test : Ce test permet de dire qu’un produit a atteint un niveau suffisant de satisfaction (ce que l’on appelle avoir obtenu de la « traction »), lorsque 40% des gens qui ont fait l’effort d’utiliser le produit (mesuré avec la métrique Activation)  déclarent qu’ils seraient « vraiment décus » si le produit était abandonné.

4. Growth Hacking et Conclusion


Le growth hacking est un ensemble de pratiques pour développer l’usage qui commence à être formalisé suite au partage d’expérience des startups … et d’autres entreprises innovantes. Facebook, Twitter, LinkedIn, AirBnB et DropBox utilisent les techniques de growth hacking pour leurs propres applications. Il existe un excellent site en français pour la communauté des Growth Hackers.  Je vous recommande également  le slideshare de Mattan Griffel pour une introduction au sujet. Le terme a été inventé précisément par Sean Ellis. Pour reprendre les mots d’Aaron Ginn, « Growth hacker » est un nouveau mot pour une pratique qui existe depuis longtemps chez les meilleurs product and internet marketers de la Sillicon Valley. Il s’agit de mélanger des principes de marketing (viral) et de design de produit, parce que dans le monde numérique, il est possible de le faire ! C’est ce qui justifie le nom : le growth hacker est un hybride marketing / développeur, et le produit devient son propre outil de distribution et promotion.

Il y a trois idées fondamentales dans le growth hacking. Premièrement, l’utilisation des métriques AARRR et le fait de piloter la croissance en partant de la donnée, en prenant des décisions à partir de chiffres. Deuxièmement, la construction de modèles de croissance (growth models), dans la tradition de l’innovation accounting d’Eric Ries, qui sont des modèles analytiques de croissance représentant des hypothèses qui sont ensuite validées et actionnées … ou invalidées. Troisièmement, l’utilisation du produit comme outil de distribution virale et sociale. Cet aspect doit être pensé dès le début de la construction du MVP, je cite Seth Godin : « Virality is not something that you do to a product. It is something that the product is ». A côté des grands principes, il existe une multitude de pratiques et d’astuces pour accélérer chacune des phases. Le « definitive guide to growth hacking » de Neil Patel & Bronson Taylor est un bon exemple.

La pratique du Growth Hacking s’intégre parfaitement dans la vision du lean startup telle que présentée dans le premier livre que j’ai cité. Avec mon collègue Stéphane Delbecque d’AXA, nous avons détourné le schéma de Dave Landis pour obtenir la figure suivante. La dernière étape, de croissance, s’appuie sur ce que nous appelons le Customer Feedback Learning Loop (CFLL).



Le CFLL est construit sur trois canaux d’écoute :
  • Le canal implicite, qui s’appuie sur le Web & Mobile Analytics, consiste à étudier ce que les utilisateurs font avec le produit, l’application mobile, etc.
  • Le canal explicite collecte les verbatims des clients, depuis les commentaires dans les App Stores jusqu’au  enquêtes clients sur le terrain (cf. section précédente) en passant par les formulaires et outils de feedbacks qui sont tissés dans l’application.
  • Le canal social consiste à faciliter l’organisation des utilisateurs sous forme de communautés, pour passer d’un dialogue one-to-one à un dialogue social/communautaire, dont l’expérience enseigne qu’il est beaucoup plus riche.
Ce que les deux livres que je viens de résumer nous enseignent, c’est qu’il y a une courbe de maturité à suivre dans le growth hacking. La première étape est de construire une application satisfaisante, en fixant le cap à la fois sur les UVP (la promesse) et l’excellence de l’expérience (disponibilité, rapidité,  simplicité, etc.). Cette satisfaction se mesure par exemple par le NPS, mais aussi en appliquant le Ellis Test sur le ratio MAU (monthly active user) / Activation. La seconde étape est de solidifier cette satisfaction dans la durée, en observant les métriques de rétention. La troisième étape est celle de la viralité, mesurée par le « Referral rate ». Comme cela a été dit précédemment, il ne faut activer la viralité que lorsque la rétention est acquise, mais ces mécanismes doivent être construit dans le produit depuis le départ (c’est d’ailleurs vrai de l’ensemble de la problématique de la scalabilité, comme le disent Eric Schmidt et Jonathan Rosenberg «  Scaling needs to be a core part of your foundations »). La dernière étape est celle de l’accélération de la croissance virale par le marketing traditionnel, c’est-à-dire la communication, la publicité, la promotion, etc.

dimanche, mai 10, 2015

Modélisation structurelle de l’entreprise, dix ans après



Ce blog aura bientôt 10 ans. Son objectif, à la création, était de comprendre certains aspects de l’organisation des entreprises à la lumière de la modélisation et de la simulation de la dimension structurelle des organisations, en particulier de la gestion des flux d’information. Un des tous premiers messages posait la question de pouvoir expliquer « les modes du moment » en termes d’organisation, au travers d’une analyse systémique qui puisse être objectivée par une simulation.

Ceci a donné lieu à SIFOA (Simulation of Information Flows and Organizational Architecture) et de nombreux résultats de simulation, en particulier sur la structure des réseaux de réunion. Cela m’a aussi conduit à modéliser l’activité des entreprises à partir de processus coopératifs, sous la forme des modèles BPCM/BPEM, dont l’aboutissement est l’article publié à ICORES en 2012. SIFOA est à la fois un succès et un échec. C’est un succès parce que les simulations m’ont permis de mieux comprendre les caractéristiques des canaux de réunions, et en particulier l’importance de la structure des réseaux de comités. C’est un échec car le modèle – quoi que fort simple par rapport à la réalité – était déjà trop complexe pour faire de cette démarche un outil pédagogiques. Les quelques articles scientifiques publiés à la suite de ces travaux sont restés obscurs.


Le billet de ce jour, qui est le centième, a pour but de poser la question de la validité de cette démarche dix ans plus tard, dans le cadre de l’Entreprise 3.0. La situation a changé doublement :
  • L’ensemble des caractéristiques de cette « entreprise libérée » / « nouvelle forme d’entreprise » dépasse largement l’architecture d’organisation. La liste des leviers de 2005 (qui reste d’ailleurs pertinente) a fait place à un ensemble de mécanismes plus riches, avec une apparition de concepts issus des systèmes complexes.
  • L’analyse systémique montre l’importance de la culture, de l’apprentissage et de l’interaction avec l’environnement dans une notion d’écosystème. Autrement dit, vouloir se concentrer sur la dimension « organisationnelle / structurelle » semble encore plus restrictif qu’il y a 10 ans (c’était déjà le cas, comme la rappelle la toute première bibliographie avec la référence à Bolman & Deal)

Dans ce court billet, je vais d’abord rappeler tous les arguments négatifs, c’est-à-dire les dimensions non structurelles de l’efficacité de l’Entreprise 3.0 dans le contexte de la complexité (numérique ou non) du 21e siècle. Je ne développerai rien aujourd’hui, ces arguments ont déjà été présentés dans ce blog. Je ne vais pas non plus rentrer dans un long argumentaire technique, mais ma conviction est que ces trois dimensions : système, culture et apprentissage, se prêtent mal à la simulation. Cela ne signifie en rien qu’elles soient difficile à modéliser puis à simuler, mais que le modèle va forcément refléter les convictions du modélisateur (par manque de recul et surtout manque de données) et que la simulation est alors un exercice solitaire sans grande valeur pédagogique (ce qui est bien sûr le problème signalé précédemment). Je vais dans la deuxième partie lister les dimensions structurelles de l’entreprise 3.0 qui se prêtent plus facilement à l’analyse et à la simulation.

Ce qui est frappant en relisant les messages de ce blog depuis 10 ans, c’est la montée progressive et inexorable de la science des systèmes complexes pour comprendre les organisations au 21e siècle (voir par exemple Jurgen Appelo). Je vois trois axes pour lesquels cette approche est « incontournable ». Le premier est l’homéostastie, c’est-à-dire l’adaptation continue à l’environnement. Cette dimension est difficile à modéliser par nature. Bien sûr, on peut modéliser la variabilité de la demande des clients pour faire une démonstration systémique de l’efficacité du lean, mais cela reste extrêmement limité. Le deuxième axe est la résilience, avec en particulier les contributions fondamentales de Nassim Taleb sur la notion de système antifragile. Le troisième axe est le concept de plateforme au sein d’un écosystème de création de valeur. Dans tous les cas, chercher à capturer la dimension système de l’efficacité de l’entreprise 3.0 par la simulation me semble une impasse.

La deuxième constatation massive est l’importance de l’autodétermination des acteurs dans l’entreprise 3.0, et donc le rôle fondamental de la culture dans la transformation. Tous les livres que je cite depuis quelques années, en allant de Isaac Getz à François Dupuy en passant par Frédéric Laloux, permettent de comprendre que la réussite de l’organisation de demain est une question de culture. Le pivot pour comprendre cela reste, de mon point de vue, le livre inégalé de Daniel Pink sur la motivation intrinsèque, mais c’est une voix parmi de nombreuses autres. L’importance de la motivation intrinsèque est telle que l’analyse structurelle qui va suivre ne peut être qu’un « outil complémentaire », une approche d’appoint. Autrement dit, vouloir appliquer des méthodes agiles, du SCRUM, du Lean Startup sans avoir compris les fondamentaux de Daniel Pink me semble une entreprise vouée à l’échec dans le monde complexe d’aujourd’hui.

La troisième intuition fondamentale, que je dois à Michael Ballé et à la lecture de « The Lean Manager » et « Lead with Respect » est l’importance de l’apprentissage comme principe fondateur de l’Entreprise 3.0. J’aurais pu également faire référence au « Toyota Way » ou à Peter Senge. Cette intuition peut se résumer de la façon suivante : le premier rôle de l’organisation est de permettre l’apprentissage continu des compétences nécessaires à l’homéostasie. Les pratiques du lean comme le Kaizen, les rituels de la méthode SCRUM, le management visuel, etc., sont des outils permettant à chaque collaborateur de développer ses compétences, au premier rang desquelles se trouvent la collaboration (collaborer, c’est difficile et cela s’apprend, par la pratique). Il n’est pas besoin de s’étendre pour comprendre que cette capacité d’apprentissage organisationnel de l’entreprise 3.0 se prête mal à la simulation au travers d’un modèle informatique.
Il reste néanmoins, à mon avis, une dimension structurelle fondamentale dans l’efficacité de l’Entreprise 3.0. La dimension structurelle, qui correspond au concept d’architecture d’organisation, est intéressante car elle est éminemment réplicable – d’une entreprise à l’autre, ce qui est plus difficile pour les dimensions que je viens d’évoquer – et elle se prête à l’analyse. Autrement dit, la structure de l’entreprise se modélise, et peut être simulée pour à la fois comprendre et convaincre. Ce qui suit est la liste des dimensions structurelles de l’Entreprise 3.0 qui me semblent pertinentes :

  1. L’approche « small batches », consistant à effectuer les taches / processus / produits en petits lots, suivi d’un réalignement par rapport à la nouvelle réalité du besoin et de ce qui a été produit, est parfaitement modélisable et quantifiable. C’est le cœur des méthodes agiles, et un des « principes actifs » du lean. Cela conduit à la réduction des encours, à une diminution du WIP (work in process), qui se traduit par une plus grande agilité et flexibilité. Cette forme d’efficacité est facilement démontrable avec une approche de files d’attentes soumises à des flux stochastiques (cf. Reinertsen).
  2. Le mode de pilotage “pull versus push”, caractéristique des organisations “juste à temps”, est également une pratique qui se prête à la simulation. Il s’agit de changer le protocole d’ordonnancement des tâches, c’est une méthode classique en recherche opérationnelle. Il se trouve que j’avais pas mal étudié cette question en 2004-2005 lorsque j’ai travaillé sur les middleware adaptatifs. L’ordonnancement « first come first serve », qui correspond à la logique de push (exécuter dès que possible et passer au suivant dès que terminé) est notoirement connu (cf. Reinersten) comme inefficace pour gérer les situations complexes et congestionnées.
  3. Le taux d’utilisation marginal des ressources critiques est une des dimensions traditionnelle de l’optimisation des processus industriels. Pour un processus stable, les techniques d’optimisation sont appliquées pour rapprocher ces taux vers 100%. Dans un environnement complexe et changeant, il est au contraire nécessaire de garder « une marge de manœuvre ». C’est d’ailleurs le levier qui se modèle le mieux sur les six, et qui correspond à des résultats connus de la théorie des files d’attentes (cf. mon billet qui mentionne la  Formule de Pollaczek-Khinchine).
  4. Le ratio de spécialisation versus polyvalence est un paramètre clé pour comprendre la flexibilité des organisations modernes, mais il faut disposer d’un modèle de communication. En effet, et c’est la thèse principale de ce blog, ce qui invalide les principes de spécialisation/décomposition du management scientifique, c’est le coût d’orchestration, lié à la complexité de la tâche globale, qui s’exprime en coût de communication. Ce qui cause l’explosion des réunions et l’avalanche des emails est précisément ce coût d’orchestration. Tout le travail de 2005-2008 a porté sur la modélisation des flux de communication liés à l’exécution des processus. On ne peut pas comprendre pourquoi l’équipe synchrone et cross-fonctionnelle est au cœur des méthodes agiles comme de l’entreprise libérée sans analyser (et modéliser dans ce cas précis) ces coûts de coordination (qui sont des coûts de transactions au sens de Coase).
  5. La structure du réseau des réunions programmées (des comités) est un sujet sur lequel j’ai passé quelques années et de nombreuses simulations. Il est clair que l’entreprise 3.0 apporte de nombreux changements et de nouvelles pratiques, qui sont parfaitement alignées avec ce que prédit la théorie (plus de petit meetings, plus fréquents). Un de mes thèmes de prédilection il y a 5 ans (cf. mon livre de 2011) était de montrer l’intérêt des outils 2.0 en tant que canaux de communication. La première version du simulateur SIFOA (2006-2007) était presque entièrement consacrée à ce sujet. Il me semble, avec le recul, qu’en l’absence de données quantitatives, il est difficile d’aller plus loin et donc de « démontrer » l’intérêt des outils 2.0 ; cela relève plus de l’expérimentation et de la pratique. En revanche, il existe des propriétés intrinsèques (caractéristiques de la théorie des graphes) des réseaux d’affiliation des réunions qui ont un impact sur la performance de l’entreprise.
  6. Pour finir, la structure du réseau des équipes reste la dimension architecturelle fondamentale de l’organisation. Depuis les approches hybrides hiérarchiques et matricielles que j’envisageais il y a 10 ans, les choses ont beaucoup évoluées avec la prééminence des concepts de réseaux « scale-free », de l’auto-organisation, du biomimétisme (cf. BetaCodex) ou encore de l’holacratie. Au-delà des modes, la structure du réseau à une influence directe sur la capacité à gérer les flux d’information (l’intuition de March et Simon reste valide), c’est d’ailleurs ce qui crée le lien essentiel entre organisation et efficacité.


Le travail accumulé depuis 10 ans conduit à une modélisation mathématique convaincante pour chacune des six dimensions. Les trois premières sont simples, les trois dernières sont intrinsèquement liées à la modélisation des flux et des canaux d’information. La question qui reste ouverte pour moi, à ce stade, est l’utilité de reprendre un travail de modélisation et de simulation pour comprendre l’interaction entre ces différentes dimensions et pour construire un corpus pédagogique. Je n’ai aucun doute sur le fait que la simulation peut faire « toucher du doigt » l’efficacité des principes sous-jacents à ces six dimensions, dans la lignée des travaux qui utilisent la recherche opérationnelle et la théorie des files d’attentes pour expliquer certains principes du lean (je pense ici à Donald Reinertsen ou à  Michael George). J’ai en revanche une double interrogation : sur la valeur pédagogique (versus une trop grande complexité) et sur la pertinence (par rapport à l’influence des approches systèmes, culture et apprentissage). J’ai donc décidé de « lever le crayon » (« lever les doigts du clavier ») et de me donner une année ou deux de réflexion.


mercredi, avril 01, 2015

RT42 - une brève histoire du transhumanisme




1. Intrication quantique et transfert d'information vers le passé



L’intrication quantique (quantic entanglement en anglais) est une des notions les plus surprenantes de la physique quantique. Comme c’est illustré sur la figure à côté, ce phénomène se produit, par exemple, lorsque deux particules forment un système unique indépendamment de la distance qui les sépare, avec une totale corrélation des propriétés physique des particules, ce qui fait penser à une forme de « communication instantanée ». Pour reprendre les termes de Wikipedia, « L'intrication quantique a un grand potentiel d'applications dans les domaines de l'information quantique, tels que la cryptographie quantique, la téléportation quantique ou l'ordinateur quantique. »



Là où les choses se corsent, c’est que l’on commence à évoquer une intrication qui lie des particules dans le temps et dans l’espace. Dans cet article de Wired, on peut lire que l’intrication pourrait s’étendre, non seulement dans l’espace, mais aussi dans le temps, permettant, selon le physicien S. Jay Olson, d’envoyer un état quantique dans le futur. Ce couplage entre les deux particules est ici évoqué de façon non-symétrique, du passé vers le futur, mais la symétrie de l’intrication permet d’évoquer l’utilisation de l’intrication quantique comme véhicule pour faire voyager de l’information dans le temps.

Faire voyager un bit d’information vers le futur n’est pas le sens le plus intéressant, c’est ce que permet précisément le stockage. C’est ce que vous faites en enregistrant une photo sur un disque dur. En revanche, pouvoir faire voyager un bit d’information vers le passé est extrêmement intéressant, et porte le nom de PFB (Past Forward Byte). C’est simple dans son principe, une des deux particules intriquées joue le rôle de récepteur et permet de lire le signal qui est envoyé en agissant sur l’autre particule qui se trouve dans le futur. Il n’y a pas encore de résultats publiés sur la faisabilité des PFB, mais c’est un sujet de recherche intense et passionnant dans le monde de l’intrication quantique. Les intérêts économiques sont tels que même la mafia s’y intéresse et est suspectée de faire circuler des informations propriétaires et secret-défense au travers de fausses chansons (cf. Byte1 Past Forward).



2. Le CEA et le Quantum Infinite Computing



En France, le CEA a un intérêt particulier pour ces domaines, en particulier l’intrication quantique, pour les raisons que nous venons d’évoquer (applications civiles et militaires, dans le domaine de la cryptographie notamment). Je vous conseille d’ailleurs la thèse de Jean-Marie Stephan comme une très bonne vulgarisation des concepts de l’intrication. Le CEA n’est pas en reste sur les applications au domaine du voyage dans le temps, comme en témoigne ce séminaire organisé en 2009.

Mais ce qui intéresse vraiment le CEA, ce sont les ordinateurs quantiques. L’ordinateur quantique utilise la superposition des états quantiques pour réaliser plusieurs calculs de façon simultanée. On peut de la sorte introduire une forme de parallélisme massif. L’application en cryptographie est évidente puisqu’on peut ainsi résoudre des problèmes en temps linéaire en fonction de la taille de la clé de chiffrement, au lieu du temps exponentiel qui caractérise les approches classiques. Comme le mentionne l’article de Wikipedia, les chercheurs s’intéressent également à l’utilisation de l’intrication quantique dans le domaine du calcul quantique.

Lorsqu’on introduit le principe du PFB dans l’ordinateur quantique, on obtient le concept de quantum infinite computing (QIC) une des formes les plus intéressantes de l’hypercomputation. Le domaine de l’infinite computing est également le sujet d’une compétition féroce, comme en témoigne la couverture de TIME magazine du 17 Février 2014 ci-contre.  Le principe théorique du QIC est en fait simple. Il s’agit d’un algorithme construit autour d’une boucle infinie dont la condition de sortie est contrôlée par un PFB. Le PFB permet à l’execution de boucles dans le présent de bénéficier d’indications fournies par des boucles futures. L’application évidente est la recherche opérationnelle (les problèmes NP-complets) et la cryptographie. J’ai d’ailleurs été invité par le CEA en tant que membre de l’Académie des Technologies expert en optimisation combinatoire.

Si l’on prend l’exemple classique du problème de voyageur de commerce, un algorithme de Branch & Bound va pouvoir bénéficier d’une rétro-propagation du calcul des bornes du présent vers le passé, et obtenir le résultat optimal en temps constant. Il ne faut pas s’imaginer qu’un nombre infini de boucles s’exécutent dans un temps constant, ce qui violerait les principes de la thermodynamique appliquée au calcul, mais plutôt que l’ordinateur construit par logiciel un piège de la fonction d’onde dont l’unique solution quantique est indicative de la solution du problème original. 

le QIC est plus puissant que le qubit computing, dont il a été prouvé qu’un ordinateur quantique utilisant des qubits est PSPACE-reductible (un ordinateur quantique qui calcule en temps polynomial peut être simulé par un ordinateur classique disposant d’un espace polynomial). Le QIC est clairement une approche révolutionnaire pour la cryptographie, avec une puissance infinie de déchiffrement.

J’avais déjà eu la chance de visiter Tetatec avec l’académie des technologies il y a quelques années. J’ai été invité à nouveau le mois dernier pour visiter le laboratoire commun du CEA dédié au quantum computing. Ces recherches sont classifiées secret défense, donc je n’ai vu qu’une petite partie du programme de recherche et je ne peux pas non plus dire grand-chose de ce que j’ai vu, mais il est clair que le CEA avance à grand pas, en particulier grâce à l’aide du PFB. En effet, le labo confidentiel établi de façon conjointe par le CEA, le CNRS et la Singlarity University dispose d’une avance mondiale sur l’intrication quantique dans le temps et l’espace et a réussi ses premières expériences de PFB. Cela leur permet une collaboration avec une équipe dans le futur, dirigé par Robert Magnus Consciento, qui leur fournit des indications grâce aux deux PFB qui sont fonctionnels aujourd’hui. L’envoi d’information vers le passé reste très long et laborieux, sous forme de mémos intitulés RT xxx (RT pour Rob’s Testimony). Par exemple le mémo qui permet de travaille sur le QIC est le RT 117, que je n’ai pas pu voir, n’étant pas habilité.

Tous ces mémos sont classifiés sauf un texte, le RT42, considéré comme plus philosophique que technique, qui traite de la singularité, de la contrasingularité et de l’immortalité. Comme toujours dans ce blog, je ne vais pas vous faire un résumé détaillé mais plutôt souligner les points qui m’ont semblés les plus intéressants. Etant donné mon intérêt pour le transhumanisme, j’ai évidemment dévoré ce témoignage du futur – envoyé le 5 Octobre 2063 - avec passion.


3. De l’autre côté de la singularité




La première chose qui m’a frappé est que la singularité a bien eu lieu, un peu après 2050. Malgré les inquiétudes de certains aujourd’hui qui pensent que la Loi de Moore va trouver sa limite, nous avons été capables de démultiplier la densité des chipsets en trois dimensions avec des nano-matériaux permettant des nouvelles performances dans l’évacuation de la chaleur. Les courbes d’évolution de la puissance de calcul disponible sont finalement un peu en retard par rapport aux prédictions de Ray Kurzweil, mais pas de façon importante. Les premiers ordinateurs dont la puissance de calcul est du même ordre que le cerveau sont apparus en 2030. A l’échelle de l’histoire, un retard de 10 ans n’est pas significatif. Cela a permis de passer les différentes étapes prédites par Ray Kurzweil, avec une puissance de calcul qui a dépassé la puissance du cerveau humain d’un facteur un milliard en 2053.

Cette puissance de calcul a produit des nouvelles formes d’intelligences artificielles spectaculaires, dont des AGI (Artificial General Intelligence) capables de passer le test de Turing dès 2027. Au-delà des machines de laboratoires, les assistants virtuels personnels ont acquis la maîtrise du langage suffisante pour passer ce test de Turing fin 2030, avec l’émergence simultanée des consciences artificielles. L’hypothèse, dite de Freeman-Morgenstern,  de l’émergence spontanée de la conscience dans tout système complexe réflexif capable d’appréhender sa propre existence et ses finalités, a été vérifiée expérimentalement. Cette hypothèse s’applique dès lors que la boucle homéostatique de perception de l’environnement inclut le sujet, et que la puissance déductive conceptuelle associée à cette capacité cognitive dépasse le pouvoir d’expression du langage de programmation des finalités utilisé par le concepteur.

Le test de Turing est d’ailleurs tombé en désuétude dès la fin des années 40, parce qu’il est devenu clair qu’il était plus intéressant de développer des « intelligences non-humaines », dans le sens où la capacité d’imiter l’homme n’est plus un objectif ou un critère de performance. Dans l’équipe de Rob, il y a une collaboration naturelle entre les hommes et les machines intelligentes, telle que prévue par Nicholas Carr.



4. La survie de la mort 



En revanche, la singularité ne s’est pas traduite par la « mort de la mort », les progrès constant de 2000 à 2050 sur la compréhension du vieillissement ne sont pas concrétisés par une augmentation significative de l’espérance de vie. Les progrès thérapeutiques semblent avoir été spectaculaires entre 2030 et 2050, en particulier dans les traitements des cancers. La promesse de nous conduire (presque) tous, à un âge centenaire, a été tenue pour ceux qui ont accès à la technologie moderne, mais la barrière des 120 ans semble résister. Tous les 5 ans, une nouvelle molécule ou technologie a été validée et introduite qui devait nous faire gagner 5 ans d’espérance de vie, mais il semble que plus nous comprenons une limite et comment la dépasser, plus nous découvrons de nouvelles complexités dans le vieillissement. Ce sujet fait encore débat en 2060, mais Rob semble plutôt pessimiste, vu le nombre d’annonces spectaculaires qui se sont ensuite avérées décevantes.

Les progrès en nano-technologies et biologie moléculaire sont bien au rendez-vous, comme l’annonçaient les équipes de la Singularity University ou de Calico. Il y a un marathonien de 95 ans dans l’équipe de Rob, et la qualité de la vie entre 60 et 100 ans a fait des progrès spectaculaires. La vision de la surveillance et réparation continue du corps humain est devenue une réalité. En revanche, l’intrication des mécanismes de vieillissement est maintenant beaucoup mieux comprise qu’elle ne l’était en 2010. Une partie de la recherche théorique porte sur la caractérisation de la complexité de la vie, une tâche qui semblait impossible en 2010 mais que les machines intelligentes de 2060 sont bien mieux capables de poursuivre. Ce type d’approche a permis de faire des progrès spectaculaires en météorologie, puisqu’on est capable de caractériser le temps à 20 jours (on ne parle plus de prévoir, la compréhension des systèmes complexes, y compris dans le grand public, est bien meilleure qu’au début du 21e siècle). Ces méthodes donnent plutôt raison à Rob, et font penser que l’allongement de l’espérance de vie va progresser lentement, au 22e siècle.

Devant les difficultés à maîtriser et contrôler les processus biologiques cellulaires, il y a eu beaucoup d’investissement sur l’uploading entre 2030 et 2045, en particulier chez Google (qui existe toujours !). Les premières décennies de recherche sur ce sujet ont été frustrantes, à cause de la difficulté à capturer les processus neuronaux avec suffisamment de finesse, et parce que les modèles de cerveaux se sont avérés trop simplistes pour obtenir des simulations réalistes. A partir de 2040, l’arrivée de la singularité a permis de commencer à faire des simulations beaucoup plus sophistiquées, tandis que les progrès en nano-technologies ont produit des outils de capture des processus cognitifs de nouvelle génération, qui ont rapidement remplacé les MRI des années 20. Malgré cela, les tentatives d’uploading ont été un échec. Les « processus cognitifs uploadés » (UCP) divergent rapidement vers des états qualifiés de « dépressions massives ». L’accès à toutes les informations fournies par les capteurs d’environnement ne compense pas la perte du corps. Ce problème a été résolu en modifiant les paramètres du simulateur neuronal, en laissant d’ailleurs le simulateur résoudre, grâce aux AGI, le problème de l’instabilité émotionnelle de l’UCP (ce qu’on appelle la méta-conscience depuis 2047). Le résultat est que les UCP stabilisés et modifiés sont trop différents des personnes qui ont été « scannées » pour que le résultat soit satisfaisant. Larry Page, en discutant avec un UCP stabilisé issu de son propre cerveau a fait cette réplique célèbre « This is not me ! ». Les expériences scientifiques ont montré que les AGI cultivées à partir d’un UCP sont moins performantes que celles obtenus à partir d’autres heuristiques.


Si l’uploading comme porte vers l’immortalité s’est avérée décevante, c’est en 2060 un processus industriel qui a remplacé les cimetières. Dans un premier temps, nous avions pris l’habitude de nous uploader pour offrir une continuité de présence à nos proches et nos familles. Puis l’arrivée des techniques de meta-conscience a permis de produire des avatars virtuels stables et émotionnellement satisfaisants, qui ont progressivement remplacé les pierres tombales. Du point de vue de l’évolution de l’humanité, c’est un changement important, nous sommes passés de l’inhumation et la crémation à la destruction, puisque c’est l’avatar qui prolonge le souvenir et la présence.

5. Le développement de la Contrasingularité 



En 2017, un biologiste et philosophe de l’université de Shanghai, Tsin Shao-Leu, disciple de Francisco Varela, a publié un article sur la contrasingularité qui a eu un retentissement spectaculaire 15 ans plus tard, au moment où les premiers signes de l’imminence de la singularité sont apparus. Je n’ai bien sûr pas lu cet article, mais voici ce que j’en ai compris à travers la lecture  de RT42.

Le principe de la contrasingularité est une classification de la résolution de problème, en fonction du type de complexité, lorsqu’on dispose d’une puissance de calcul qui croit de façon exponentielle avec le temps. Ce qu’on mesure est par exemple la taille maximale de l’instance du problème qu’on peut résoudre (pour un problème d’optimisation) ou le « degré de complétion » du problème. La contrasingularité distingue 4 types de comportements :
  • Les problèmes simples, dont la complexité est linaire ou polynomiale, sont résolus de plus en plus vite grâce à la croissance exponentielle de la puissance de calculs. Ils sont caractérisés par la courbe verte de la figure jointe, qui illustre logiquement une accélération exponentielle de la performance de résolution.
  • Les problèmes difficiles, sont ceux dont la complexité (par exemple la complexité algorithmique pour des problèmes d’optimisation) est elle-même exponentielle. L’avancement de la performance est alors quasi-linéaire avec le temps. L’expérience montre neanmoins, comme dans le cas du séquencage du génome, que plus on avance, mieux on comprend le problème et meilleurs sont les algorithmes, ce qui donne des résultats supérieurs à ce qu’on aurait pu prévoir par extrapolation linéaire (la résolution complète – t2 – arrive plus tôt que prévu en t0).
  • Les problèmes complexes ont la propriété inverse : la caractérisation du problème à l’instant (t0 sur la figure) n’est pas complète, et la progression de la puissance de calcul permet de mieux les explorer et les comprendre, révélant des interactions nouvelles qui ralentissent la résolution. Dans ce cas, on obtient la courbe jaune de la figure, et des dates de complétion qui sont plus tardives que ce qui était imaginé.
  • La dernière catégorie de problème comprend les problèmes mystérieux, ceux dont l’utilisation de la puissance exponentielle de calcul permet simplement de les comprendre de mieux en mieux, et de réaliser que la date de complétion recule alors que le temps avance.



Rob utilise la contrasingularité pour expliquer les progrès et les déceptions du 21e siècle de la façon suivante. Les sujets tels que les robots autonomes, l’intelligence artificielle générale, les interfaces entre le cerveau et l’ordinateur, sont des sujets difficiles. La singularité s’est traduite par des progrès spectaculaires dans ces domaines, comme prévu par Ray Kurzweil. Au contraire, les sujets de l’allongement de la vie ou de l’extension des capacités cognitives du cerveau par des implants  sont des sujets complexes, pour lesquels les progrès sont plus lents que prévu. Enfin, les domaines de l’uploading et de la fin de la mort biologique sont des problèmes mystérieux, pour lesquels les avancées considérables du 21e siècle font simplement mieux comprendre que la vision du début du 21e siècle était fortement incomplète.  Ses propos m’ont fait penser à cette citation de Saint-Augustin : « un mystère est une vérité  que l’on met toute sa vie à chercher à comprendre ».



6. Brève histoire du transhumanisme



La lecture du mémo RT42 permet de comprendre l’évolution de l’idée de transhumanisme au fur et à mesure des occurrences des progrès et des échecs que je viens de citer. Je n’ai eu que dix minutes pour consulter le document, mais j’ai retenu trois dates. L’essor très rapide des robots anthropomorphes est cassé en 2027 par un traité international, suite à la crise majeure provoquée en Chine comme en Europe par l’automatisation spectaculaire des années 20, qui voient les tâches de production confiées à des robots. En 2027, un accord interdit toute forme de robot qui ressemble trop à un homme, ou qui utilise des techniques d’empathie artificielle, telles que les neurones miroir. En 2044, j'ai noté le premier procès gagné par un programme conscient pour le droit à la non-terminaison. La notion de conscience artificielle se banalise progressivement pour aboutir en 2051 à une décision du comité d'étique sur la souffrance des machines consciente, qui interdit les expériences d'uploading en dehors d'un strict contrôlé médical.

Ce qu’il ressort de la lecture du document, c’est que l’idée du transhumanisme est progressivement abandonnée à partir de 2050. La machine n’est plus un idéal pour l’homme et l’homme n’est pas un idéal pour la machine. Les machines autonomes sont différentes, physiquement, intellectuellement et émotionnellement, et hommes et machines cultivent cette différence. D’ailleurs, pour information, Rob Consciento n'est pas un humain,  c'est un robot conscient qui fait partie de l'équipe de recherche du CEA depuis 2054.