lundi, mai 08, 2017

"Grec et chinois" : anticipation et agilité




1. Introduction


Le 23 Janvier je suis intervenu à une conférence coorganisée par l’AFIA et le MEDEF sur l’intelligence artificielle. Je me suis appuyé sur les premiers travaux du groupe de travail de l’Académie des technologies pour évoquer l’impact grandissant des progrès de l’Intelligence Artificielle sur les entreprises, en particulier dans le monde de la finance et de l’assurance. Les slides sont disponibles en ligne, la dernière slide de conclusion contient une « Pyramide de Maslow » qui décrit les conditions pour cultiver les possibilités et bénéfices de l’Intelligence Artificielle dans les entreprises. L’objectif du billet de ce jour est d’expliquer ce schéma, qui rassemble beaucoup des idées que je développe dans ce blog.


Le titre de ce billet est bien sûr un clin d’œil au livre de François Jullien, « Conférence sur l’efficacité ». Savoir profiter des progrès constants de l’Intelligence Artificielle relève précisément du « jardinage de l’émergence » qui est le thème du livre, une nouvelle définition de l’efficacité dans un monde complexe, non-linéaire, dans lequel les approches velléitaires et mécanistes ne fonctionnent plus. Sans rentrer dans le détail, rappelons que François Jullien oppose deux modèles de pensée : le modèle grec, dont nous sommes les héritiers, qui construit sa stratégie sur la finalité de façon déductive, sous la forme d’un plan d’action, et le modèle chinois qui définit une stratégie inductive construit un potentiel de situation et laisse les opportunités guider l’action. Le « modèle grec » cherche à imposer sa volonté au monde – et permet de façonner le monde de la sorte. C’est le modèle idéal pour construire des cathédrales et des TGVs. Il repose sur l’hypothèse que nous comprenons le monde et que nous pouvons anticiper ce qui va se passer. Le modèle et le plan y jouent un rôle fondateur. Le « modèle chinois » s’adapte continument à la réalité du monde et ne fait pas les mêmes hypothèses. C’est donc un meilleur modèle pour naviguer dans l’incertain. L’action volontaire est remplacée par une transformation continue. Il ne s’agit pas bien sûr d’opposer de façon binaire ces deux approches mais de savoir les combiner. En particulier, c’est le titre de ce billet, de savoir combiner les bénéfices de l’anticipation et de l’agilité. Dans la grande tradition de l’art militaire de Sun Tzu, c’est parce que qu’on a anticipé pour jardiner son potentiel de situation que l’on peut faire preuve d’agilité et saisir les opportunités. Je ne connais pas de meilleure façon de penser la stratégie des systèmes d’informations.


La thèse de ce billet est simplement qu’il faut penser l’émergence de l’Intelligence Artificielle dans nos entreprises, et donc dans nos systèmes d’informations, dans ce double temps : le temps long de l’anticipation et du jardinage, et le temps court de l’agilité, pour saisir des opportunités qui sont par essence fugaces dans un monde d’hyper-compétition. Cette thèse va être développée en quatre partie. La première porte sur cette opposition entre le temps court et le temps long, sur les pas de François Jullien. La seconde section s’intéresse entre la dualité entre les connaissances et la pratique, ce qui est également essentiel pour comprendre comment profiter de l’Intelligence Artificielle. L’usage de la technologie qui crée de la valeur sur les opportunités est un usage émergent, tiré par la pratique et les outils. Nous allons retrouver les problématiques d’émergence et d’adaptation continue à son environnement (homéostasie) du livre « Exponential Organisations » qui est un autre marqueur de ce blog.  La troisième section porte sur l’« osmose de l’innovation », qui sont les conditions pour que l’entreprise puisse bénéficier du flux continu d’innovation que des partenaires externes peuvent lui apporter. Ce sont les conditions de l’open innovation, particulièrement importante dans les cas de l’Intelligence Artificielle puisque les investissements massifs des GAFA et des venture capitalists dans l’IA font que l’entreprise doit accueillir des idées, compétences et outils externes, bien plus qu’internes. La dernière section appliquera toutes ces idées pour expliquer ma proposition sur ce que sont les conditions nécessaires à la bonne valorisation de l’intelligence artificielle dans les entreprises.

2. Temps court et temps long


Un des aphorismes préférés du monde digital et des startups est « Fail Fast », rendu célèbre par des grandes entreprises de la Silicon Valley. Il est souvent mal compris et utilisé pour justifier qu’il faille abandonner rapidement si un projet ne réussit pas – et cela d’autant plus qu’on fonctionne sur un modèle de pensée grec qui cherche à imprimer son action sur le monde. « Fail Fast » est un principe de systémique, qui s’applique au « cycle time » et pas au « lead time ». Autrement dit, l’aphorisme est à comprendre dans un monde d’itérations continues, et il signifie qu’il faut savoir échouer le plus rapidement possible, parce qu’il faut itérer plusieurs fois pour réussir. Plus ce qu’on cherche à faire est ambitieux – et dynamique – plus il est essentiel de raccourcir le temps des itérations. C’est très précisément le principe fondateur du Lean Startup.
Il est par ailleurs clair que temps court et temps long ne s’opposent pas. Le temps long est celui de la préparation, le temps court est celui de l’action. C’est une évidence depuis des siècles pour les militaires ou les sportifs de haut niveau – en particulier les sportifs de l’extrême comme les alpinistes. Le fait que la prévision devienne de plus en plus difficile dans un monde complexe ne signifie pas qu’il ne faut pas se préparer. Je vous renvoie ici à Nassim Taleb, qui s’inscrit précisément dans un mode « chinois » de préparation du potentiel de situation « antifragile », capable de profiter des opportunités et de s’enrichir des aléas. Taleb remet à l’honneur les exercices, la pratique des « war games », des « katas » du monde lean, pour construire ce potentiel. Dans le monde du système d’information, le temps long est celui de la construction du potentiel (modèle, données, API, etc.) tandis que le temps court est celui du projet agile qui rencontre le besoin de l’utilisateur.
Le temps long est nécessaire pour développer les capacités d’innovation qui s’expriment dans le temps court. Le parallèle entre l’innovation et les métaphores agricoles chères à François Jullien pour expliquer le modèle chinois est frappant.  Une partie du travail est visible (lorsque la plante pousse) mais une partie ne l’est pas (lorsqu’on prépare le sol). Les « slow hunchs » chers à Steven Johnson sont semblables à la germination des graines. Je vous revoie également au livre « Lean Enterprise – How High Performance Organizations Innovate at Scale » que j’ai commenté dans un billet précédent.
L’illustration suivante représente les différents cycles de temps qui participent à la démarche lean du Toyota Way. Le temps T0 est le temps court de la satisfaction client. C’est le temps du processus, mesuré par le takt time. Le temps T1 est celui du cycle de l’amélioration continu, celui du kaizen. C’est déjà un temps plus long et plus complexe, puisque l’amélioration continue est un processus émergent. Le temps T2 est celui de la construction des compétences, le temps long du potentiel de situation. Comme nous le rappelle Michael Ballé, le kaizen est un outil de résolution de problème, dont l’objectif final est de développer les compétences, à la fois dans le domaine systémique du produit ou service que l’on construit et dans le domaine de la collaboration d’équipe. C’est le « secret génial du lean » : il n’y a pas de meilleure façon de « casser les silos » et d’apprendre la collaboration à une équipe plurifonctionnelle que de résoudre ensemble des problèmes clients – ce que mon expérience de construction de set-top box à Bouygues Telecom confirme merveilleusement. La biologie et la science des systèmes complexe nous confirment les intuitions du lean :
  • Pour que les organismes survivent ils doivent être adaptables, et cela passe par la minimisation du temps de réponse (temps de cycle T0)
  • Pour être agiles et rapides, il faut apprendre (temps T2) par la pratique (temps T1)



3. Technologie et Outils

Une des clés essentielles pour comprendre le développement des technologies est la codépendance entre l’outil et l’usage.  L’usage est guidé et façonné par l’outil, mais l’outil évolue et se transforme en fonction de l’usage – il n’y a pas d’outil sans usage. Dans l’apprentissage des connaissances, l’outil et la pratique jouent un rôle fondamental. C’est un des thèmes fondateurs de l’Académie des technologies. Ces idées sont par exemple illustrées dans le rapport de 2015 sur le Big Data.  Le rôle essentiel des outils est particulièrement important dans le domaine de la transformation numérique. La codépendance est quasi paradoxale : les outils sont au service de la transformation – et leur mise à disposition n’a pas d’efficacité sans une ambition et une histoire partagée … mais la transformation nécessite les bons outils – en particulier la simplicité d’utilisation – et la capacité laissée à tous de se les approprier. Il suffit d’ajouter peu de contraintes pour transformer un « best-seller du travail collaboratif » en plateforme d’entreprise apathique.
De la même façon, la construction des « Exponential Information Systems », les systèmes d’informations qui utilisent et profitent de la révolution exponentielle des technologies numériques, passe par la pratique et expérimentation continue des meilleurs outils.  C’est une des principales limitations des entreprises traditionnelles face aux entreprises disruptives, qu’il s’agisse de startups ou d’entreprises qui viennent du monde du logiciel. « Software is eating the world » … et il s’agit de prendre les bons couverts. Ne pas utiliser les mêmes piles logicielles, les mêmes librairies, les mêmes outils open-source que les concurrents les plus agiles revient à se tirer une balle dans le pied. Et il ne s’agit pas seulement d’une vision mécaniste de l’efficacité (temps T0 : l’outil permet d’aller plus vite) mais bien de la capacité à apprendre plus vite comment travailler autrement (temps T1) pour développer des nouvelles compétences sur le temps T2. Les outils modernes pour construire des logiciels ne sont pas réservés à une nouvelle génération d’informaticien, ils sont ce qui forme une nouvelle génération de développeurs.
Je vous recommande très chaleureusement la lecture de l’article « ING’s agile transformation » de McKinsey avec l’interview de Peter Jacobs et Bart Schatmann. Non seulement c’est un très bon article sur l’agilité – « It’s about minimizing handovers and bureaucracy, and empowering people », avec de très bonnes explications sur l’importance des « squads » et du travail en équipe cross-fonctionnelle – « Spotify was an inspiration on how to get people to collaborate », mais il contient également une vision sur l’adaptation continue de l’entreprise – et son système d’information - grâce à une approche DevOps – « The integration of product development and IT operations has enabled use to develop innovative new product features ». Le déploiment de DevOps illustre parfaitement le propos précédent : l’enjeu n’est pas simplement de travailler plus vite, c’est de travailler autrement, pour à la fin travailler beaucoup mieux … et beaucoup plus vite.  Une fois de plus, les outils jouent un rôle fondateur, ils définissent le potentiel de situation de l’équipe.

Une fois de plus, j’emprunte dans ce billet beaucoup au livre « Exponential Organizations » de Salim Ismail, Michael Malone et Yuri Van Geest. Ce livre donne un certain nombre de clés pour comprendre ce qui est nécessaire à l’adaptation continue des entreprises au changement exponentiel de leur environnement. Je voudrai souligner ici quatre points :
  • Le monde des Exponential Organizations est un monde ouvert dans lequel les entreprises doivent absorber le plus de valeur possible de l’extérieur, en particulier sous la forme d’open innovation qui sera le sujet de la section suivante.
  • Le changement est « distribué » aux frontières (Interfaces) – on retrouve ici la métaphore biologique du BetaCodex, sur laquelle je reviens dans la section suivante. La vitesse de changement impose que celui-ci ait lieu de l’extérieur (la frontière) vers l’intérieur. L’entreprise s’adapte au changement de son environnement (par exemple ses clients) au lieu de décliner une stratégie qui vient du centre décisionnel. C’est le principe de l’homéostasie digitale dans le contexte de la transformation numérique.
  • Le changement commence par la pratique (Experimentation). La supériorité du « learn by doing » est un symptôme de la complexité de l’environnement. Cette complexité exige une adaptation, qui se fait implicitement dans l’apprentissage par expérimentation pratique, parce que la pratique est plus facilement intégrée dans l’environnement réel.
  • Comme dans tout système complexe, le changement rapide exige une finalité claire (Purpose). Pour citer Isaac Getz, l’autonomie sans finalité commune produit le chaos. Dans un monde sans planification, c’est la finalité qui guide la construction du potentiel de situation, de façon émergente.


4. Innovation et Osmose




Le besoin d’ “open innovation” – aller trouver les innovations à l’extérieur de l’entreprise, les idées, les compétences et les talents – est une des conséquence de cet environnement complexe en perpétuelle évolution. Je n’y reviens pas, c’est une des idées clés de « Exponential Organizations » et de ce blog. La stratégie de l’entreprise n’est pas une stratégie d’investisseur (sauf s’il s’agit d’un fond d’investissement ou de capital risque) :  pour créer de la valeur propre, il faut que ce qui est repéré à l’extérieur puisse être « intégré » dans l’entreprise – sous des formes multiples. La métaphore biologique qui inspire cette section est celle d’une cellule qui cherche à profiter de ressources disponibles dans son environnement. Si l’acteur innovant est autonome – par exemple une startup – et n’a pas vraiment besoin des ressources de l’entreprise, l’expérience montre qu’il s’agit plus d’une démarche d’investissement ou d’un partenariat de distribution que la co-création de valeur à laquelle aspire la démarche d’open innovation.

Cette problématique de l’intégration est d’autant plus importante que l’approche est souvent vue comme un palliatif pour corriger les cycles trop lents d’une (grande) entreprise. C’est la métaphore souvent entendue du « porte-avion et des vedettes » : L’organisme lent et gros s’associe avec des plus petits et plus rapides qui sont mieux à même d’explorer et détecter les nouvelles possibilités. Cette métaphore est valide pour ce qui concerne l’ambition, l’association avec des petites structures augmente « la surface de contact » avec les marchés et avec les opportunités technologiques. Elle passe sous silence en revanche les conditions de contact et de collaboration entre le porte-avion et les petits bateaux. Pour que les échanges fonctionnent bien – cela va de partager le même langage, pouvoir identifier les mêmes opportunités au partage de données et de services – il doit exister une certaine homogénéité entre les différents acteurs, à la fois en termes de culture et de biorythme.

La métaphore de l’osmose exprime cette condition de l’open innovation : la « pression innovante » doit être équilibrée des deux côtés de la « membrane » (dedans et dehors de l’entreprise) pour que les échanges fonctionnent et que la cocréation de valeur puisse se produire.  C’est ce que j’ai essayé d’illustrer dans le schéma ci-dessous. Pour que l’association avec un petit acteur innovant fonctionne, l’entreprise doit adapter sa culture (cf. « Exponential Organizations ») – pour pouvoir se synchroniser et reconnaitre de façon commune des opportunités -, sa technologie – pour permettre les échanges de données et de services – et son « biorythme » - l’échelle de temps de ses décisions et actions. Dans le domaine de l’échange de données, tout le monde ne parle plus que d’API (Application Programming Interfaces), à juste titre, mais cela ne suffit pas. Pour que cette collaboration logicielle se développe, il faut des API, une pratique logicielle commune et une vision partagée de l’ALP (Application Lifecycle Management) pour que les biorythmes s’ajustent de façon durable – par exemple sur ce que chacun attend de l’autre en matière de réactivité. On retrouve ici notre dualité temps long/ temps court (selon la citation de Louis Pasteur, « le hasard ne sourit qu’aux esprits bien préparés ») : le temps d’association et de cocréation de valeur avec la startup doit être un temps court, mais le temps d’équilibrage des pressions (construire la bonne culture, les bonnes API et les bonnes pratiques) est un temps long, celui de la préparation.




5. Intelligence Artificielle et Emergence


Je peux maintenant revenir au sujet de mon intervention lors de la matinée du MEDEF et de l’AFIA, lorsque je j’ai cherché à partager mes convictions sur les conditions nécessaires pour profiter de cette « révolution exponentielle » de l’apprentissage et de l’intelligence artificielle. Ces convictions sont le fruit de mon expérience, renforcée par ma visite à la Singularity University en Septembre. Pour résumer, il me semble que ces conditions sont au nombre de quatre : disposer de données, pratiquer les outils logiciels modernes, être organisés en « squads » cross-fonctionnels et promouvoir une culture d’entreprise favorable à l’autonomie et l’expérimentation. Sans rentrer dans le détail – j’y reviendrai une fois que le rapport de l’Académie des technologies sera publié – voici une brève explication sur chacun des 4 points :

  • Il y a un consensus total sur le fait qu’il faut des données pour développer des « solutions intelligentes ». C’est vrai de façon générale, et encore plus lorsqu’on parle de « deep learning ». Tous les rapports sur l’IA – comme l’excellent rapport de France IA - convergent sur ce point, tout comme les différents experts que nous avons rencontrés à l’Académie des technologies. Pour une entreprise, la collecte et préparation des données relève du temps long : il s’agit de construire des « training sets » pour les algorithmes apprenants de demain. Sur ce thème, je vous recommande la lecture savoureuse de l’article de Martin Goodson.
  • L’importance de la « culture logicielle » et de l’environnement de travail est la conséquence logique de la seconde section de ce billet. C’est particulièrement vrai pour le domaine de l’IA : on trouve quasiment tout ce qu’on veut dans le monde open-source, mais il faut avoir la pratique de l’intégration et l’assemblage.
  • Le travail en équipe cross-fonctionnelle est essentiel car il n’y a pas de recette pour diagnostique à l’avance la création de valeur. L’apport des algorithmes « intelligents » est lui-même un phénomène complexe, difficile à prévoir. La pratique est pleine de surprises : des déceptions et des bonnes surprises. Le mode agile est particulièrement indiqué pour développer ce type d’opportunités.
  • La complexité et l’incertitude exigent également de laisser une véritable autonomie aux équipes agile. La découverte de l’innovation nécessite une vraie capacité d’expérimentation. Par ailleurs, la révolution de l’IA est pervasive : à coté de quelques gros sujets tels que la voiture autonome ou l’assistant personnel sur le téléphone, il s’agit d’une multitude d’opportunités pour l’ensemble des tâches de l’entreprise. Cette dispersion des opportunités exige une distribution du contrôle, selon les principes des « exponential organizations ».


Pour conclure, je peux maintenant inclure l’illustration que j’ai présentée le 23 Janvier. Il s’agit d’une pyramide de conditions pour que les entreprises puissent bénéficier des progrès constants (et surtout ceux à venir) de l’Intelligence Artificielle (au sens large). Comme dans une pyramide de Maslow, chaque condition est un prérequis pour celle qui est au-dessus. Ce schéma est clairement abstrait, voire sibyllin, et je n’avais pas le temps de l’expliquer durant un exposé aussi court. En revanche, le lecteur attentif devrait reconnaitre l’ensemble des arguments qui ont été développés dans ce billet.




mardi, janvier 31, 2017

Applications mobiles et conversations : la voie de la raison


1. Introduction


Les chatbots sont ces petits robots qui ont fait leur apparition sur les plateformes de messaging, de WeChat à Facebook. Ce serait peu dire que l’engouement pour les chatbots est un évènement marquant de l’année 2016. Il y a bien longtemps que le Cluetrain Manifesto annonçait que les marchés sont des conversations, mais avec l’arrivée des chatbot le concept du « commerce conversationnel » a pris un nouvel essor. Ceci conduit Forbes à écrire « Get ready for the chatbot revolution : they’re simple, cheap and about to be everywhere”, pour prendre un exemple parmi des centaines.

Au même moment, on constate à la fois un ralentissement dans l’augmentation de la pénétration des smartphones, et une concentration de l’usage des apps au profit des blockbusters et au détriment des nouveaux entrants. Il y a une vraie logique dans l’entrée d’une « phase plateau » des smartphones, puisque la technologie marque un temps d’arrêt, et que cela conduit à un ralentissement des renouvellements, tandis que la pénétration a atteint un niveau qui n’est pas loin de la saturation, à condition économique constante. Le ralentissement de la phase de croissance continue que nous avons connu depuis 10 ans se traduit logiquement dans le taux de chargement des applications.  Les places sur les écrans de nos smartphones sont chères, car elles sont liées à une place dans le « top of mind ». Les expériences qui « justifient une app », par leur fréquence d’usage et la valeur apportée restent rares. Dans la très grande majorité des cas, une approche de « Web app », produite sur le navigateur du mobile – dont les capacités ne font que progresser-, est amplement suffisante.

La combinaison de ces deux tendances fait qu’on voit apparaitre depuis plusieurs mois des articles annonçant la fin des applications mobiles. Les chatbots vont remplacer les apps parce qu’ils sont plus faciles à utiliser et ne nécessitent pas de téléchargement. La fin des apps mobiles n’est pas un thème nouveau, mais la compétition avec les chatbots devraient porter le coup de grâce, sans compter les progrès spectaculaires de la reconnaissance vocale, qui devraient faire du smartphone un objet auquel on parle.

L’objectif du billet de ce jour est d’essayer de trouver un compromis – la « voie de la raison » - entre l’enthousiasme justifié pour les chatbots en tant que nouveau canal d’interaction et le scepticisme raisonné face au « hype », et en particulier l’idée que cette approche signifierait la fin des applications mobile. Je partage cet enthousiasme, et les premières expérimentations auxquelles j’ai pu être associé confortent  mon intérêt, mais je suis absolument pas convaincu pas les arguments qui prévoient la fin des applications mobiles. Je pense qu’une révolution arrive, en terme d’interface homme-machine, mais qu’elle va s’ajouter au reste plus que le remplacer les autres techniques d’interaction (hormis les quelques cas dans lesquels le méthodes actuelles sont inefficaces).

Ce billet est organisé selon le plan suivant. La première partie va souligner l’importance de la conversation – sous forme écrite avec un chatbot ou vocale avec Siri ou Alexa – comme méthode d’interaction. Même s’il faudra du temps pour avoir des conversations réellement intelligentes avec les machines, une très grande partie de nos moments de vie se contentent très bien d’une conversation simple – ce que je qualifie de « dumb bots » - qui est à la portée de la technologie d’aujourd’hui et représente un vrai progrès par rapport aux alternatives – remplir un formulaire sur le Web par exemple. La seconde partie va rappeler quelques évidences sur le design d’interaction, pour redécouvrir que tout n’est pas réductible à une conversation. Nous avons 5 sens, et il faudra continuer d’en profiter, avec ou sans intelligence artificielle. La dernière partie va s’intéresser simplement à l’évolution des applications mobiles en co-évolution avec les chatbots. Les smartphones vont continuer – au moins dans les 10 ans à venir – à progresser en termes de capacité logicielles et matérielles via l’incorporation de senseurs. Les applications deviennent des systèmes, dont l’implémentation est distribuée (mobile et cloud et objets) et dont les interfaces sont également distribuées.


2. Une révolution se prépare : l’interaction conversationnelle 


L’utilisation des chatbots est un élément de différenciation du moment de la plupart des acteurs innovants, comme les startups. L’interaction à travers un “agent conversationnel” (chatbot) présente de nombreux avantages, même si le service reçu est simple. Au-delà du côté « naturel » du dialogue en langage naturel, le principe de la conversation est à la fois rassurant et simple. Les premiers retours des utilisateurs pour qui on remplace un formulaire web par un dialogue simple - qui demande les informations une par une - sont très positifs. Ce sont les « dumb bots » que je mentionnais plus haut : des chatbots limités dans leurs capacités et qui interviennent sur des domaines limités. La première étape de la révolution est maintenant parce que la technologie pour les dumbot est très facilement disponible et mature, et parce que les bénéfices clients sont déjà réels. Les plateformes actuelles permettent déjà des réaliser des dialogues plus conviviaux et plus robustes que l’état de l’art des formulaires web assortis d’assistants en Javascript. Plus on dispose de nombreux exemples de dialogues, plus il est possible d’entrainer le chatbot à donner des réponses pertinentes. Par un effet vertueux, un chatbot qui commence à bien fonctionner devient un collecteur de dialogues, ce qui permet de continuer à progresser (et c’est pour cela qu’il faut commencer).

Je peux citer ici à nouveau Norm Judah, le CTO de Microsoft, et reprendre ses arguments d’un billet précédent. Les bots permettent d’ouvrir les interactions avec les services digitaux à de nouvelles familles d’utilisateurs :

  • Ceux qui n’ont pas accès à un smartphone où ne sont pas familier avec l’utilisation des apps. Il faut se rappeler que même si la pénétration des smartphones frise la saturation, plus de la moitié des utilisateurs se contentent des apps pré-chargées et n’en ajoute pas d’autres.
  •  Les utilisateurs qui ne sont pas familiers avec la conceptualisation implicite de la plupart des interfaces utilisateurs du web. La navigation dans les menus, les listes déroulantes, les choix de catégorie qui reposent sur des abstractions, sont autant de barrières en fonction des origines socio-culturelles des utilisateurs.



Si l’état courant des plateformes de bots favorise le choix réaliste de domaines très précis de dialogue, les « dumb bots » vont devenir de plus en plus « smart » parce que la reconnaissance du langage va fortement progresser dans les années à venir. Je vous renvoie à la présentation que j’ai faire au MEDEF – lors de la journée co-organisée avec l’AFIA. Le chemin vers les assistants « vraiment intelligents » sera long. Même à la Singularity University, Ray Kurzweill pense qu’il faudra encore dix ans avant d’avoir des conversations convaincantes sur des domaines généraux. Pour l’instant, lorsqu’il faut traiter des demandes variées, la meilleure méthode est de combiner l’intelligence humaine et l’intelligence artificielle, à la façon de Wiidii ou de Facebook M. Mais il faut s’attendre à des progrès rapides et des étapes marquantes dans cette route vers les assistants « généraux ». Si vous voulez vous convaincre des progrès rapides dans ce domaine, je vous recommande la lecture de cet article, qui relate le fait que les robots de reconnaissance vocale battent les meilleurs humains en train de « texter » des messages. Lors d’une compétition organisée par Baidu, la reconnaissance vocale sur smartphone est 3 fois plus rapide et 20% plus précise que les meilleurs accros au mobile messaging. Ce n’est pas un hasard si Andrew Ng déclare : « 2017 will be the year of the conversational computer ».

Si l’on définit le concept de “test de Turing du chatbot intelligent”, il y a trois paramètres essentiels : le scope de la conversation, la durée de la conversation, et la sérendipité (est-ce que l’utilisateur pose une question ou est-ce qu’il s’agit d’apprendre quelque chose qu’on ne sait pas encore être intéressant). Sur une durée courte, avec un domaine défini et un mode requête, les techniques actuelles permettent déjà de faire illusion (i.e., « passer le test de Turing »), comme le témoigne l’exemple célèbre suivant. Un professeur a décidé de remplacer un de ses « assistants » pour répondre aux questions des élèves, et cela a très bien fonctionné. Les experts des chatbots insistent sur l’importance d’un domaine précis et bien délimité, car cela facilite grandement l’apprentissage supervisé, et permet d’obtenir une bien plus grande pertinence.


3. Design d’interaction 


Ce que nous venons de voir dans la section précédente ne signifie nullement que les chatbots sont une panacée en termes d’interactions. Rappelons-nous, suivant une formule célèbre, que le but du design est de minimiser les frictions et de maximiser le plaisir lors de l’utilisation d’un produit ou d’in service. Le domaine CMC (Computer Mediated Communication), auquel j’ai fait de nombreuses fois référence dans ce blog, est riche d’enseignement.  Chaque canal de communication se caractérise par sa densité, sa bande passante, sa capacité de feedback (entre autres). Le canal audio a ses forces et ses faiblesses, tout comme le canal textuel. L’utilisation de l’image et de la vue supporte une bien plus grande densité d’information. Il ne viendrait à personne l’idée de remplacer Google maps par un chatbot, même si certains « use cases » se prêtent au dialogue. De la même façon, le canal haptique, associé au toucher, permet un excellent niveau de feedback qui n’est pas accessible via le langage. Ici on peut penser aux applications de sketching ou de dessins, qui ne sont pas remplaçables par des dialogues. Au-delà de ces exemples caricaturaux (cf. "un dessin vaut mieux qu’un long discours"), les interfaces conversationnelles sont un des outils du design d’interaction, dans une large panoplie de solutions. Le fait que les progrès des techniques d’apprentissage viennent de faire un progrès spectaculaire et rendent les interactions conversationnelles robotisées faciles d’accès et beaucoup plus pertinentes ne modifie pas l’intérêt fondamental d’utiliser l’ensemble de nos sens pour faciliter le dialogue entre l’humain et la machine.

Sans rentrer dans trop de détail sur ce qui justifierait un billet séparé, voici quelques réflexions sur l’arrivée des chatbots dans la pratique du design d’interaction :

  • Le design d’interaction est au service de l’expérience, tournée vers le “job to be done” et le “unique value proposition” que le service doit apporter au client. Le choix du meilleur canal doit tenir compte du contexte d’utilisation. Par exemple le canal vocal respecte peu la «privacy » du client et produit une « nuisance sonore » (une externalité négative) qui le rende inadapté à de nombreux usages.
  • L’interaction homme-machine est une science, il existe beaucoup de principes et de méthodes fondées sur des expériences validées (clin d’œil à la data science des bots). Beaucoup d’expériences digitales abusent de la puissance des outils et de la richesse des écrans en fournissant beaucoup trop d’information (ce qui a permis à de nombreux acteurs de s’illustrer en prenant le contrepied). A l’inverse, les dialogues répétés et les pages multiples de certaines interfaces Web sont un retour arrière par rapport à la mise à disposition d’information complète.
  • Comme nous allons le développer dans la section suivante, il faut s’inspirer de la nature et favoriser la diversité des canaux d’interaction. Il y a des moments où la voix n’est pas adaptée mais il y a clairement des moments où c’est l’approche la plus naturelle, ce qui explique le succès d’Amazon Echo. Réduire l’effort nécessaire – cf. thinking, fast and slow - est un excellent principe de design biomimétique. La conversation est un mode plus confortable que la requête, mais avec un « cout de setup » et une énergie nécessaire supérieure (par exemple, à l’utilisation de Google dans la barre du navigateur).
  • Chaque année digitale vient avec ses modes, mais la « « mode précédente de l’environnement cliquable – pour reprendre une très belle formule de Joël de Rosnay – qui utilise les objets connectés comme des éléments du design d’interaction reste extrêmement pertinente. L’expérience favorise le design d’interactions simples, associées à un usage unique.  Un exemple simple est celui de la télécommande de la télévision (ou de la set-top box) qui résiste vaillamment à l’introduction de la reconnaissance vocale dans ces objets.



4. La fin des applications n’est pas encore en vue


Pour revenir à la question de l’introduction, le besoin de la richesse des modes d’interaction donne une première raison de penser que les chatbots ne vont pas signifier la fin des applications mobiles. Cette diversité va au contraire conduire à une vision étendue des applications, capables de se matérialiser sur plusieurs interfaces utilisateur. Je souscris à ce concept d’interface utilisateur à la demande « When I say On-Demand User Interfaces, I mean that the app only appears in a particular context when necessary and in the format which is most convenient for the user”. Cet article insiste fort justement sur la notion de produit. L’application est un produit qui se décline intelligemment sous plusieurs instanciations en fonction du contexte utilisateur, avec les interfaces adéquates.
                                                                              
Si l’on regarde ce que les gens font aujourd’hui avec leurs apps, on retrouve les categories best-sellers: la communications avec d’autres personnes, les news et le divertissement, les jeux. Dans la plupart des cas, le canal chatbot n’est pas le mieux adapté et il y a peu de chance que ces applications disparaissent. Si vous voulez vous en convaincre, regardez les applications des deux premiers écrans de votre smartphone et comptez celles qui pourraient être remplacé par un chatbot.  L’arrivée des applications vocales – on pense aux skills d’Alexa et leurs équivalents chez Google – vont donner lieu à des nouvelles plateformes, mais il s’agit de l’ajout d’un nouvel écosystème digital, pas de la fin du précédent.

De toutes façons, les chiffres ne supportent pas les analyses pessimistes que j’ai cités en introduction. Il y bien un léger tassement et une concentration en faveur des applications dominantes, mais la course technologique n’est pas terminée et il faut s’attendre à ce que les smartphones intègrent des nouvelles capacités, matérielles et logicielles, qui donneront lieux à des nouvelles applications. Sur le plan matériel, nous n’en sommes qu’au début de l’intégration des senseurs. Les domaines de la santé, de la prévention et du bien-être vont être bouleversés par l’arrivée de capteurs beaucoup plus sensibles et fiables de nos bio-mesures, depuis des choses élémentaires comme la température ou le rythme cardiaque jusque des mesures complexes de type ECG. Ces capacités nouvelles (en particulier par rapport au manque de précision/fiabilité des premières génération) vont donner lieu à des nouvelles applications. De la même façon, le machine learning et les réseaux neuronaux vont s’inviter sur les smartphones pour leur permettre d’analyser notre environnement (images et sons, mais aussi déplacements). Il faut s’attendre à voir apparaitre de multiples applications – y compris les évolutions de celles que nous connaissons déjà – qui vont exploiter ces capacités.

La notion d’application va également devenir de plus en plus polymorphe : des applications mobiles avec interfaces graphique – celles que nous connaissons aujourd’hui - , mais aussi des application mobiles en « tache de fond » qui s’exprimeront par d’autres canaux (e.g., messages ou notifications), des applications dans les plateformes (telles que les applications dans Facebook ou Wechat), des applications intégrées dans les navigateurs, ou des applications natives des OS (des « widgets » associés à des événements) ou des applications associées à des objets, tels que le bouton Nuimo que j’utilise avec plaisir depuis quelques mois. Tout ceci conduit à la notion d’application en tant que système, au lieu d’être une « destination », ce qui est très bien expliqué dans  l’article  « the end of the apps as we know them ». Voici un petit extrait pour vous donner envie de lire cet article : « Most of us building software are no longer designing destinations to drive people to. That was the dominant pattern for a version of the Internet that is disappearing fast. In a world of many different screens and devices, content needs to be broken down into atomic units so that it can work agnostic of the screen size or technology platform. For example, Facebook is not a website or an app. It is an eco-system of objects (people, photos, videos, comments, businesses, brands, etc.) that are aggregated in many different ways through people’s newsfeeds, timelines and pages, and delivered to a range of devices, some of which haven’t even been invented yet. So Facebook is not a set of webpages, or screens in an app. It’s a system of objects, and relationships between them ».  Cet article insiste sur l’importance des notifications et d’une approche orientée-évènement, un point sur lequel je ne peux être qu’en agrément.

Pour conclure, je reprendrai le titre de cet article de Techcrunch : « les nouvelles de la mort des apps ont été grandement exagérées », mais il n’en reste pas moins vrai que construire une application satisfaisante reste une aventure très difficile, comme l’explique très bien cet article sur la refonte d’Evernote.