dimanche, janvier 04, 2009

Eloge de la Titrisation

Je reprends la plume en 2009 avec un petit sujet provocant en ce temps de crise, financière, économique et crise de confiance. Comme tout le monde j'entends, particulièrement à la radio, nos « spécialistes » nous expliquer les dangers de la titrisation.

Je me suis même régalé en écoutant la vision des humoristes britanniques John Bird et John Fortune : How the Markets really work.

La titrisation est devenue le « symptôme honteux » de la « folie financière ». Cette propagande fonctionne bien ; dans mon entourage, j'ai constaté que personne ne savait ce que c'était, mais que c'était clairement une abomination. Je n'ai aucune compétence en finance ou sur le système bancaire (ce qui m'autorise à en parler sans conflit d'intérêt), mais un peu de culture en termes de statistiques, de processus stochastiques et de systèmes complexes (et c'est bien ce dont il s'agit). Je pense, bizarrement, que la titrisation est une très belle idée et que la faillite massive de sa gestion est une opportunité de réflexion, sans « jeter le bébé avec l'eau du bain ».

Commençons par expliquer de quoi l'on parle. Je vais être ici très simplificateur, tout en gardant « la substantifique moelle ». Il existe un excellent article sur Wikipedia, que je vous recommande.

Lorsqu'une banque vous consent un prêt, elle assume le risque que vous ne puissiez plus rembourser. Si vous êtes un citoyen « régulier » avec un emploi stable, ce risque est assez faible … et la banque a différents moyens de le réduire (assurances). Néanmoins il reste un risque faible, disons 1 % (je vais prendre des chiffres au hasard, seul le principe m'intéresse). Le taux d'intérêt que la banque vous consent reflète son propre taux de refinancement, sa marge et la prise en compte de ce risque.

Prenons le cas maintenant de l'individu « irrégulier » (je ne peux pas me permettre dans un blog écrit l'irrévérence des propos de John Bird et John Fortune) – sans emploi stable, etc. Son risque de « défaut » (ne pas être capable de rembourser ses mensualités) est plus élevé, disons 5%. La banque pourrait se contenter de proposer un taux plus élevé pour rémunérer son risque, mais, sans rentrer dans le détail, ce n'est pas son métier. Elle doit, au contraire, indépendamment de la rémunération, réduire son exposition au risque.

C'est ici que la titrisation intervient : Je regroupe 1000 prêts semblables dans un « produit » (SPV) et je les ordonne virtuellement selon leur fiabilité. Pour simplifier, je crée deux groupes : le groupes des « 100 pires » et celui des « 900 autres ». Le groupe des « pires » est virtuel, au début on ne sait pas qui est dedans. Au fur et à mesure qu'il y a des « défauts », les emprunteurs qui sont en difficulté remplissent ce groupe, à la hauteur des 100. Cette manipulation, classique en statistiques (ex : éliminer les valeurs extrêmes), produit l'effet escompté : le risque se concentre dans le premier groupe, et est réduit dans le second. Si les défauts de paiement sont indépendants, on ne constatera un défaut dans le groupe des 950 que si plus de 100 personnes ont eu un problème durant la vie du prêt. Si l'on raisonne simplement, on pourrait s'attendre à avoir « un défaut sur deux » dans le groupe des 100 et pas de défaut dans le groupe des 900.

Très logiquement, la banque répartit donc la rémunération du risque (le taux d'intérêt consenti pour l'individu irrégulier est bien sur plus élevé) de façon différente : le groupe des « 100 » rémunère considérablement mieux que le groupe des 900. Cela permet à des acteurs différents de faire leur travail financier : les acteurs qui « aiment le risque » (ex : les « hedge funds ») vont financer le « groupe des pires » parce qu'il assure une forte rentabilité, tandis que les acteurs « plus classiques » vont choisir le groupe des 900 parce que le produit a été « dé-risqué » (d'où le terme de réhausseur de crédit).

Ce mécanisme a donc un double intérêt :

  • Séparer les métiers du financement des prêts de celui de la gestion des risques.
  • Permettre de créer des classes de risque différentes à partir d'un seul produit. Le mécanisme de titrisation est une sorte de « colonne de distillation » du risque.

Je ne vais pas élaborer (pour rester bref), mais ce sont vraiment des points positifs. En revanche, il y a quelques difficulté pour piloter ce système complexe. Le problème de ce montage est en fait multiple, mais trois grandes idées se dégagent :

  • L'abus, classique, de méthodes statistiques appliquées à des évènements que l'on croit indépendants
  • La difficulté technique dans l'utilisation des méthodes stochastiques sur des distributions « scale-free »
  • La complexité systémique qui crée des effets d'avalanche – des crises en série

     

  1. Le premier sujet est clairement d'actualité : l'avènement d'une crise de grande ampleur augmente les cas de faillite personnelle – les évènements  « défauts » ne sont pas indépendant. Bien sûr, tous les financiers qui ont construit de tels montages savaient que ce scénario était possible, ils ne savaient seulement pas « à quel point c'était  possible ». C'est une des grandes leçons que je j'ai retenu de mon cours d' « Analyse des Risques » d'Hervé Le Lous : lorsqu'on ne sait pas, on se trompe toujours sur l'étendue de son ignorance. Plus sérieusement, je vous recommande vivement la lecture de « Fooled by Randomness » de  Nassim N. Taleb. Je ferai probablement un jour un compte-rendu de lecture en ligne. Le sous-titre est « The Hidden Role of Chance in Life and in the Markets ». Ce livre a été écrit en 2004 avant la crise mais il était prémonitoire. Ce qui me frappe le plus, c'est la similitude avec la fiabilisation des grands systèmes, qu'ils soient industriels ou informatique. Ici aussi, on utilise des lois statistiques pour fiabiliser (par exemple par redondance). Ici également, l'assertion d'indépendance est souvent mise en défaut et on se retrouve avec des crises causées par des « accidents impossibles ». La recherche des causes communes fait partie de la panoplie essentielle du « systémiste » (désolé pour le néologisme, mais spécialiste aurait fait prétentieux et « ingénieur système » donnerait une fausse impression).
  2. Le second sujet est également un sujet d'actualité dans la profession. Il faut partie des idées clé de Nassim Taleb : l'abus de distribution Gaussiennes pour modéliser des marchés autrement plus complexes. J'ai déjà évoqué ce sujet avec le livre de Mark Buchanan. Je suis en train de lire en ce moment « Critical Mass » de Philip Ball, dont le chapitre 8 « Rythm of the Marketplace » explique la présence de distributions « scale-free » (des « power laws ») dans les courbes de variations de valeur. Au-delà de l'aspect fascinant que représente la cause de ces distributions (dont j'ai déjà parlé), le point qui nous intéresse ici est la présence de variations « spectaculaires » beaucoup plus amples et plus fréquente que lorsqu'on utilise des distributions Gaussiennes. Pour simplifier à l'extrême, la nature « apprenante » du marché crée des oscillations et des amplifications qui vont bien au-delà du « bruit » Brownien. Le résultat net est que lorsque des outils « statistiques » sont utilisés pour évaluer les taux de couverture de risque des produits titrisés, ils sont le plus souvent faux. Cette difficulté est amplifié avec des produits dérivés qui joue un effet de levier (donc augmentent la volatilité du risque), ce qui est précisément le cas de la titrisation telle que nous venons de l'expliquer.
  3. Le troisième sujet est bien entendu celui qui m'intéresse, car lié au domaine des systèmes complexes. La crise actuelle, tout comme le problème du réchauffement climatique, est un « paradis » pour un étudiant en systémie. Il y a un très grand nombre de sous-systèmes, avec des couplages dans tous les sens. Le marché immobilier, la demande en pétrole, le cycle du refinancement du crédit, la mondialisation, le déficit commercial américain financé par la Chine, etc., tous ces systèmes complexes sont couplés. Cela crée des amplifications qui invalident tous les scénarii qui avaient été fait pour « protéger » les montages de « subprimes » et de « rehausseurs de crédit ». On n'est plus à l'échelle de savoir quelles sont les bonnes distributions, mais à l'échelle de la prise de recul nécessaire pour comprendre les « effets d'avalanche » possibles. Sans rentrer dans un débat épistémologique, l'approche analytique ne suffit plus et il faut probablement passer à la simulation (cf. A New Kind of Science).

Tous ces sujets méritent d'y revenir.  En particulier je ferai un compte-rendu de « Critical Mass » lorsque je l'aurai terminé. Le parallèle avec « The social atom » est frappant, mais certains aspects sont plus détaillés – comme les liens entre statistique et thermodynamique, ou comme les liens entre les fractals et les marchés –.


Je termine mon cours sur les systèmes d'information et je me suis replongé sur les grands classiques de la fiabilisation et de l'histoire des crises. Je recommande particulièrement « Normal Accidents » de Charles Perrow. Il existe bien une sous-discipline commune des systèmes complexes, celui de la prévention des risques, qui est particulièrement adaptée au monde financier (en particulier parce qu'elle s'appuie sur d'autres outils scientifiques).

A titre individuel, les qualités requises pour adresser ces problèmes sont l'écoute et l'humilité :

Bien entendu, une entreprise ne peut s'appuyer sur des seules qualités individuelles, c'est pour cela que les métiers de gestion des risques industriels se sont professionnalisés, en s'appuyant sur des méthodes et une culture :

Pour conclure, certains vont trouver mon « plaidoyer » pour la titrisation particulièrement peu convaincant au vu des inconvénients mentionnés. Je peux comprendre le principe « puisque la gestion simple des phénomènes complexes est impossible, autant les éviter » ... Appliqué au cas qui nous intéresse, cela conduit à réglementer brutalement l'arrêt (ou presque) de la titrisation. Mais il existe probablement une autre voie. C'est cette voie qui relève précisément de l'analyse des systèmes complexes.