Ni les agences de notation, ni les
grandes banques n'ont vu venir la crise financière. Fannie Mae et
Freddie Mac "ne pouvaient pas faire faillite". Des institutions
autrefois respectables comme AIG se sont écroulées en vendant
des produits d'assurance spéculatifs qu'elles croyaient peu risqués.
La liste des erreurs fatales commises par le monde de la finance ces dix
dernières années est incommensurable. Pourquoi ?
Selon le dernier ouvrage
de Philippe Herlin, reprenant les thèses de Benoît Mandelbrot et
Nassim Nicholas Taleb, la science financière actuelle est
fondamentalement déficiente, et les postulats mathématiques qui
en forment le socle dominant sont faux. Ces modèles, par la faute
d'une sous-estimation congénitale des niveaux de risque qu'ils
entrainent, ont joué un rôle essentiel dans le
déclenchement de la crise financière que nous vivons.
--------------
Dans
son nouvel Ouvrage, "Finance,
le nouveau paradigme", sous titré "comprendre la finance et
l'économie avec Mandelbrot, Taleb...",
Philippe Herlin, que vous connaissez peut être à travers son
blog "la dette de
la France", explique comment le mauvais état
de la science mathématique financière à très
largement contribué à mettre à genoux l'économie
mondiale.
Et je dois dire
que la thèse est convaincante, même si j'emets une tout petite
réserve vers la fin. Mais avant d'aborder le fond, quelques mots sur
la forme.
Un ouvrage captivant
malgré le sujet ardu
L'auteur réussit la gageure de captiver le lecteur avec un ouvrage
dont les premiers chapitres sont pourtant essentiellement consacrés
à des explications mathématiques sur les lois
dites "normales", ou de Gauss, et leur
application à la finance moderne, et les lois dites de
"puissance", ou de Zipf,
qui ont servi de base à Mandelbrot pour définir les
mathématiques fractales et les appliquer à la finance.
Comme vous voyez, ce n'est pas un ouvrage tout public, mais pas de panique !
Disons qu'un élève de terminale C ou D, ou toute personne avec
un reste de culture scientifique devrait pouvoir suivre sans problème.
Sinon, une personne qui s'intéresse au problème sans
connaître les maths sous-jacentes pourra comprendre très bien la
démarche en survolant les deux premiers chapitres.
Les sources des
modèles financiers actuels
Mais évidemment, la force du livre n'est pas dans son contenu
mathématique mais dans l'étude des conséquences d'une
erreur fondamentale dans les modèles utilisés par le monde de
la finance et celui de la grande entreprise aujourd'hui.
Je vais tenter d'expliquer en "quelques" lignes -compréhensibles,
j'espère- de quelle erreur il s'agit.
Dans les trois décennies d'après guerre, des théoriciens
de l'économie (Markovitz, Sharpe, puis Fama, Merton, Black et Scholes,
pour ne citer que les plus connus) reprennent les travaux d'un thésard
français auparavant tombé dans l'oubli, Louis Bachelier, qui avait constaté que
nombre de phénomènes financiers, tels que les valorisations
boursières de certains portefeuilles, l'évolution de cours de
certains indices, etc... semblaient suivre une distribution dite
"normale", c'est à dire une loi de Gauss.
La loi de Gauss ou "loi normale" est une loi de distribution
universellement connue de par les courbes en forme de cloche qu'elle
génère, et qui se retrouve dans nombres de
phénomènes de la vie courante.
Ainsi, par exemple, est il observé que la distribution des tailles des
individus d'un pays ou d'un large échantillon d'hommes tiré au
hasard suit une courbe de gauss, dont le sommet de la cloche est la taille
moyenne, et l'abscisse représenterait le pourcentage de la population
de la taille considérée.
On constate donc que dans un phénomène obéissant aux
lois de Gauss, un nombre important d'occurrences du phénomène
se concentrent autour de sa valeur moyenne, et que plus on s'éloigne
de la moyenne, plus la probabilité de rencontrer une occurrence du
phénomène mesuré diminue rapidement.
C'est ce phénomène que les néo-financiers de
l'après guerre ont cru pouvoir identifier dans de nombreuses
séries de variations de cours sur divers marchés. Ils en ont
déduit que nombre de phénomènes économiques
devaient suivre des lois normales.
Malheureusement, lorsque les premiers théoriciens de la finance
gaussienne produisirent leurs formules et modèles, dans les
années 50 et 60, ni les séries statistiques longues qui
auraient permis de vérifier empiriquement la validité de ces
lois, ni la puissance de traitement informatique qu'il faut pour les
analyser, n'existaient. D'autre part, les 30 glorieuses (enfin, les 25
glorieuses, 1946-1970) furent une période relativement pauvre en
événements "extrêmes" au plan
économique. Résultat: la loi de Gauss semblait marcher
relativement bien dans les situations économiques
"ordinaires". Certains crurent donc pouvoir affirmer qu'elles
étaient valides tout le temps.
Dès le début des années 60, Benoit Mandelbrot
contesta la prééminence de la loi normale dans les
phénomènes financiers. En effet, selon lui, les lois normales tendent
à sous estimer la probabilité d'occurrences de
phénomènes extrêmes par rapport à ce que l'on
observe dans le monde réel. Ainsi, les variations brutales de cours
d'une action, ou d'un marché entier, d'un secteur, qui devraient
être d'une certaine rareté dans une loi normale, sont beaucoup
plus fréquentes dans la réalité, même si cette
fréquence reste "basse" par rapport aux occurrences
"ordinaires".
Bon, et alors, me direz vous, tout ceci ne confine-t-il pas à la
querelle d'hyper spécialistes dénuée
d'intérêt dans la vie réelle ? Hélas, cent fois
hélas.
"Intérêt"
de la loi de Gauss en finance
Mandelbrot ne sera pas écouté, et toute une théorie de
la gestion des risques et de la valeur va prendre racine sur la
prémisse de l'économie "gaussienne".
Or, la gestion du couple "valeur-risque", ou
"rendement-risque", est tout à fait centrale dans le monde
financier, qu'il s'agisse de la banque ou de l'assurance. Instinctivement,
nous le savons, plus un investissement rapporte, plus il est risqué.
Mais nous savons aussi que certains investissements, ou certaines
stratégies d'investissement, présentent un meilleur rapport
risque/rentabilité que d'autres.
Inutile de dire que les banques, lorsqu'elles constatèrent que les
modèles issus de la mathématique gaussienne semblaient
applicables à la finance, se sont jetées dessus dans l'espoir
d'en tirer quelque avantage compétitif. Ce mouvement, entamé
dans les années 70, va connaître un développement
exponentiel dans les années 80 et suivantes.
Ces modèles ont donc tenté de déterminer comment
maximiser la valeur d'un portefeuille en minimisant le risque. Or, la zone
à risque correspond à l'occurrence d'événements
de probabilités faibles situés aux extrémités de
la courbe de Gauss. Les modèles financiers ont donc cherché
à modéliser selon ces lois les probabilités d'occurrence
de ces événements extrêmes suivant une loi de Gauss. Mais
que se passe-t-il si le modèle sous-estime la probabilité des
situations à risque ?
Des
hypothèses de base contestables
Naturellement, les économistes ont tenté de relier ces
phénomènes mathématiques à des explications
économiquement rationnelles. C'est ainsi que certains d'entre eux,
comme Eugene Fama, ont montré que les modèles gaussiens
étaient valides si deux hypothèses se vérifiaient:
1) La première, est la
rationalité des acteurs économiques. Ceux ci tendraient, selon
Fama, à agir en "homo economicus" rationnels. Bien
sûr, il existe des rationalités variées, mais la
"rationalité moyenne" d'une majorité d'agents
économiques suivrait elle même une loi normale et il serait donc
tout à fait... normal de modéliser les comportements des
acteurs économiques selon des lois de maximisation de
l'intérêt économique des acteurs.
2) La seconde est l'inclusion instantanée des informations disponibles
dans les prix. Les acteurs étant rationnels, dès qu'ils sont en
présence d'une information, ils valorisent cette information, et quand
bien même divers acteurs donnent à cette information une valeur
différente, là encore, ces valorisations suivront une loi
normale, et le marché, moyenne de ces valorisations, prendra donc
quasi instantanément en compte l'information dans le prix.
Seul problème, ces deux
hypothèses ne valent rien dans le monde réel.
Le modèle ne
colle pas au fait: triturons le modèle pour le faire coller !
Dès que la puissance informatique fut disponible en quantité
suffisante, certains voulurent vérifier les assertions des
modèles de Markovitz et compagnie. Mandelbrot d'abord, puis d'autres,
ont trouvé de nombreux exemples où les événements
"extrêmes" avaient eu une fréquence supérieure
à celle qu'aurait donné un calcul classique par loi normale.
Ainsi, les variations au jour le jour des cours de bourse ou des cours des
matières premières étaient bien plus souvent d'une amplitude
"importante" et "anormale" que ne l'aurait
suggéré la loi dite normale.
D'autre part, les hypothèses de marché parfait et d'homo
economicus moyen rationnel trouvent de nombreux contre-exemples historiques,
caractéristiques des périodes de bulles, où le
"biais grégaire" prédomine. J'ajouterai (remarque de
VB) que Crozier, Friedberg et d'autres ont montré que les sources de
la rationalité étaient différentes selon les individus,
que chacun avait une rationalité qui lui était propre, laquelle
dépendait à la fois de ses capacités cognitives, de ses
valeurs, et des valeurs des groupes auxquels ils s'identifie. Et parler de
"rationalité moyenne" n'a dans ce contexte aucun sens.
Enfin, de tout temps, les spéculateurs ont prospéré sur
l'écart de temps entre la prise en compte correcte de toutes les
informations disponibles sur un marché, et la formation des dits prix.
Ce temps d'intégration peut être fort long. L'hypothèse
d'intégration quasi instantanée de l'information dans les prix
est donc, du point de vue de ce qui est observable, infondée.
Bref, il existe nombre de constats empiriques de l'inadéquation des
hypothèses du modèle gaussien normal aux faits tels qu'ils se
produisent dans le monde financier réel.
Toute ressemblance
avec la science climatique... etc.
Les modèles étaient séduisants théoriquement mais
faux empiriquement. Les tenants de ces modèles, au lieu de les
remettre en cause, les ont "bricolés" pour les
"adapter" aux faits. Ils ont donc trouvé des justifications
à l'application de ces modèles en rajoutant aux
extrémités de la courbe de gausse un coefficient -
Poétiquement dénommé "Kurtosis" - capable d'expliquer une
certaine volatilité des occurrences d'événements
extrêmes.
Notons ici l'inversion classique hélas trop fréquente en science,
la confusion du modèle et du phénomène. Parce qu'une
fonction mathématique semble décrire à peu près
correctement un ensemble de phénomènes, la fonction
mathématique se substitue à la compréhension du
phénomène sous-jacent pour tenter de déduire les
évolutions probables de phénomènes trop complexes pour
être modélisables.
"Le modèle
initial ne colle pas aux faits ? Bricolons la mathématiques sous
jacente pour qu'il colle, et nous aurons un modèle qui validera la loi
de base". Mais ce n'est pas au modèle de valider la
loi, mais à la loi de fonder le modèle.
Pourtant, même des tenants initiaux de ces modèles s'en sont
écartés. Eugène Fama, l'un des plus connus, a
écrit avec un confrère, Kenneth French (leur blog) un article reconnaissant que
certaines de leurs hypothèses de base étaient fausses. Trop
tard !
Deux autres tenants de ces modèles, Merton et Scholes (non, ce ne sont pas les attaquants
de Manchester United !), se sont illustrés en 1998 - peu après l'obtention d'un
prix Nobel pour leurs théories ! - en provoquant une
faillite retentissante de plus de 10 milliards de $, avec un "risque
systémique" estimé à plus de 100 milliards, celle
de leur fonds LTCM, dont la gestion était basée sur leurs
modèles de valorisation rendement-risque issus de la loi normale
"modifiée sur les bords". Cela aurait dû tout de
même mettre la puce à l'oreille de la communauté
économique et financière. Rien, nada.
Bien que les travaux de Mandelbrot, père des fractales qui ont rendu
possible l'émergence de nombreuses applications informatiques (3D,
simulation, réalité augmentée, etc...), qui a
décliné ses recherches dans le domaine de la finance,
commencent à être reconnus, ils n'en ont pas moins resté
ignorés de la plus grande part de la communauté
économique, qui en est resté à la loi normale.
Lois de Zipf
Selon le constat empirique de Mandelbrot, les marchés financiers
obéissent non pas à des lois de Gauss, mais à des lois
de Zipf. Ces lois, également appelées lois de puissance,
s'écrivent sous leur forme la plus simple simple y=ax^k (k<0,
hyperbolique), ou encore se représentent par une droite sous une
échelle Logarithmique. Il existe des formes un peu plus complexes des
lois de Mandelbrot, mais restons en à ces représentations
simples.
Un exemple de loi
de Zipf très connu est la loi de Pareto, dite des 80/20. Un exemple:
Pareto constate que dans de nombreux pays, 80% des ménages disposent
de 20% du patrimoine, et 20% en possèdent 80%. Et parmi les 20% les
plus riches, 20% possèdent 80% de la richesse totale des plus riches,
soit 4% qui possèdent 64%, et ainsi de suite. Pas très
égalitaire, mais Pareto ne fait que des constats. Naturellement, une
loi de puissance peut être de type 90/10, 75/25, etc...
De nombreux phénomènes obéissent à des lois de
Zipf. Ainsi, la distribution des chiffres d'affaires des
sociétés de logiciel, ou encore la fréquentation des
sites web (voir cet article du gourou du web Jakob Nielsen, ou celui ci par Jason Kottke. Ce sont mes années veblog.com qui ressurgissent...)
obéissent à une loi de Zipf.
Ces lois ont deux caractéristiques essentielles :
1) elles accordent aux
événements extrêmes, ceux qui sont porteurs de risques ou
au contraire d'opportunités heureuses ("risque positif", en
quelque sorte), des probabilités très supérieures à
celles calculées selon la loi normale. Dans une distribution de Zipf,
la vitesse de diminution des probabilités d'un événement
est constante, alors qu'elle est considérablement croissante dans une
loi normale.
2) dans une loi de puissance, la "moyenne", si elle existe
arithmétiquement, n'a aucun sens du point de vue de la
réalité. Et donc, se baser sur un comportement
"moyen" pour déduire l'avenir est non seulement faux,
mais terriblement risqué.
3) elles ne peuvent absolument pas servir de base à des modèles
"robustes" fondés sur des notions
d'"équilibre" : des variations infimes du paramètre K
peuvent conduire à des résultats très différents.
Les lois de Zipf sont donc le cauchemar absolu des modélisateurs: vous
comprenez pourquoi ils ne les aiment pas.
Du second point nait une façon totalement différente
d'envisager la gestion des risques. Les assureurs le savent bien: si la
distribution des hauteurs d'eau des inondations moyennes constatées
pour un cours d'eau va généralement suivre une loi normale
(fréquente dans les phénomènes physiques), la
distribution des coûts associés à ces hauteurs d'eau va
plus vraisemblablement suivre une loi de Zipf: l'inondation extrême, la
plus rare, coûtera incommensurablement plus que l'inondation
"moyenne". Et voilà pourquoi les modèles de gestion
des risques des assureurs se basent sur la mémoire des
événements extrêmes et pas ceux des
événements "moyens", qui sont en l'occurrence
d'aucune signification dans le monde réel de l'assurance.
Le risque :
gaussé !
Malheureusement,
en matière de gestion du risque financier, c'est la loi de Gauss qui
prédomine, et donc une sous-estimation patente de la
probabilité des situations facteur de risque, ce que Taleb appel les
"cygnes noirs". Et la crise d'Août et Septembre 2008 ne fait
qu'illustrer de façon éclatante cette mauvaise prise en compte
du risque.
Un an avant la faillite de Lehman Brothers, lors du début de l'affaire
Bear Stearns, certains acteurs clé de la finance, comme le CFO de
Goldman Sachs, un certain David Viniar, se disent victimes
d'événements jamais vus. Selon eux, la crise qu'ils vivent
était tout simplement imprévisible. Les variations de cours
observées ce jour là représentaient 25 fois
l'écart type de la variation des cours selon la loi normale (les
mathématiciens parlent d'événement "sigma 25",
ce qui en terme gaussiens est d'une probabilité infinitésimale:
Un événement seulement "sigma 5" a, selon la loi
normale, une probabilité de se produire un jour sur 13 000 ans, et
"sigma 6", une fois en 4 millions d'années ! alors sigma 25,
pensez donc ! "ça ne pouvait pas arriver !"
Quelques années auparavant, Joseph Stiglitz avait estimé la probabilité de faillite de Fannie Mae et Freddie Mac
à moins d'une sur 500 000, voire moins d'une sur 3
millions: cinq ans plus tard, ces deux entreprises sous statut protégé par
l'état sont les protagonistes du
"sauvetage" le plus coûteux de l'histoire des USA, plus de
300 milliards à ce jour, et sont à l'origine de la plus grave
crise financière qui soit.
C'est d'autant plus ironique que Stiglitz avait été un des
premiers à dénoncer l'absurdité de l'hypothèse de
Fama sur la capacité de prise en compte immédiate de
l'information par les prix de marché. Ses travaux sur ce domaine lui
ont valu un prix Nobel. Mais malgré cela il est resté
accroché, pour ses prévisions, à des variations autour
de la loi normale.
Les
techniques de titrisation par tranche qui étaient
censées réduire le risque porté par les obligations
à base de crédits "subprimes" et autres
"ARM" étaient fondées sur des hypothèses de
survenance d'événements adverses basés sur la loi
normale. A la première bourrasque, le modèle a
été emporté comme un fétu de paille, alors que
selon les modèles, la tempête avait moins d'une chance sur des
centaines de millions de se produire.
L'entreprise non
financière contaminée
Philippe Herlin montre également longuement, dans ce qui est peut
être le point le plus fort de son livre, que les entreprises non
financières ont été contaminées par la finance
gaussienne, pour le pire. En sous-estimant, lois normales obligent, les
niveaux de probabilité d'événements adverses, donc les
niveaux de risque auxquels s'exposent les entreprises, en fonction de la structure
d'endettement de leur bilan, les financiers et fonds qui investissent dans
des entreprises tendent à sur-valoriser les activités
risquées mais très rentables quand tout va bien (ils sous
estiment la prime de risque) et de ce fait à sous valoriser les
activités récurrentes de "fond de portefeuille", dont
ils vont tenter de se séparer.
Les dirigeants sont donc poussés par les actionnaires à adopter
à la fois des structures de bilan et des répartitions de
portefeuilles d'activité qui sur-exposent les entreprises aux
aléas de la conjoncture, tout en les poussant à maintenir des
objectifs de rentabilité des capitaux propres financièrement
insoutenables sur le long terme.
Les dégâts de l'application aveugle de ces modèles
gaussiens aux noms barbares (MEDAF, WACC...) sur l'économie
"productive" (celle de l'actif) et l'économie
financière (celle du passif) sont encore impossibles à
évaluer dans leur totalité. Mais l'ouvrage de Philippe Herlin
passe en revue nombre de ces conséquences néfastes. Ces
modèles ont joué un rôle majeur dans
l'établissement de cette
économie de la dette dont je voudrais tant qu'elle
cédât la place à celle du capital... Je reviendrai plus
extensivement sur cette question dans les jours à venir.
Le régulateur
contaminé
Le régulateur a implicitement adopté les lois gaussiennes dans
au moins deux pans essentiels de la réglementation financière
mondiale:
1- les modèles de valorisation des
risques utilisés pour évaluer les capitaux propres obligatoires
dans les règles de Bâle sont typiquement issus de raisonnements
gaussiens.
2- les modèles utilisés par les agences de notation,
confortées par un oligopole de nature réglementaire, sont
gaussiens. Et voilà pourquoi les agences de notation semblent
réduire les notations des entreprises en difficulté ou des
états souverains après la guerre, quand il est trop tard (pour
être juste, les conflits d'intérêts internes à
cette activité jouent également un grand rôle dans le
développement de cette bulle d'incompétence des agences de
rating, aux conséquences tellement lourdes).
Ce faisant, le législateur a
poussé nombre d'entreprises financières à
s'insérer coûte que coûte dans un modèle gaussien
de gestion de la valeur et des risques, et a donc contribué à
contaminer les entreprises non financières avec les mêmes outils
de prise de décision.
Les faiblesses du
livre
Je ne vois à ce livre que trois faiblesses, secondaires compte tenu de
la richesse de ses apports, et de la qualité des
références qu'il cite, permettant à ceux que cela
intéresse de multiples approfondissements sur le sujet.
La première, marginale, est que sa critique du modèle
d'enregistrement des valeurs "mark to market" n'est pas
accompagnée de propositions de remplacement. J'ai moi même
critiqué ce modèle, puis laissé entendre - je dois encore développer
- que mes critiques initiales étaient exagérées. Mais je
bute sur la question traditionnelle:"que faire à la place" ?
Visiblement, M. Herlin aussi.
La seconde, plus importante, est l'explication sociologiquement trop
"courte" du pourquoi du succès persistant de ces
modèles faux malgré les preuves répétées
de leur incapacité à traiter correctement les
événements "aux limites". Le krach de 87, la
réplique de 89, la faillite des saving and loans, la crise asiatique,
le krach de LTCM, celui des Dot Com... Autant d'événements
à la probabilité quasi nulle selon les modèles
gaussiens, qui se sont succédés à intervalles rapprochés,
et qui auraient dû conduire les utilisateurs des modèles
à se poser les bonnes questions. J'ai une ébauche
d'explication, j'y reviendrai.
La troisième faiblesse, liée d'ailleurs à la seconde,
est qu'il semble favoriser une réforme de la finance qui imposerait de
nouvelles règles "mandelbrotiennes" à la place des
règles gaussiennes existantes, quand bien même il affirme
justement que "plus de régulation" ne résoudrait rien
- Il propose de remplacer une réglementation qu'il juge mauvaise par
une autre qu'il juge meilleure.
Ce serait à mon sens une demi-erreur. Certes, au premier abord,
remplacer des règles mauvaises par des règles apparemment plus
réalistes fait sens. Mais, d'une part, les lois de zipf, du fait de
leurs très fortes dépendances à de faibles variations
paramétriques, ne sont pas des lois d'équilibre stable, comme
l'auteur le démontre. Elles obligent de fait à se
dégager de l'analyse purement mathématique de l'économie
et à revenir aux fondamentaux de l'analyse de la valeur des entreprises:
évaluation de la qualité du management, de la pertinence de la
stratégie, etc... Aucun domaine où la règle
étatique puisse ne serait-ce que donner l'illusion d'apporter une
valeur ajoutée.
Et surtout, rien ne prouve que les lois de Mandelbrot-Zipf s'appliquent
parfaitement au spectre de toutes les situations possibles. Il est possible
que ces lois décrivent parfaitement certaines situations et plus mal
d'autres, à l'instar de leurs consoeurs gaussiennes. L'auteur le
reconnait d'ailleurs lui même puisqu'il dresse un portrait robot des
activités économiques plutôt "gaussiennes" et
de celles plutôt "zipféennes". Dans ce cas, imposer un
modèle de Zipf de façon réglementaire peut aussi avoir
des effets pervers insoupçonnés.
D'ailleurs, imaginons que les modèles Mandelbrotiens deviennent la
pensée dominante de la finance, mais que certains trublions
découvrent que dans des situations aux limites du modèle, ils
s'appliquent mal. Nul doute que la sociologie des groupes mandelbrotiens
serait la même que celle des cliques gaussiennes: ils inventeraient
leur propre équivalent du "coefficient de Kurtosis"
créé par les gaussiens pour justifier leurs modèles
envers et contre tout.
Dans ces conditions, on comprend que l'état n'est pas fondé
à dire quel modèle doit servir de support à la
réglementation. Une "sélection naturelle" des
meilleurs modèles serait souhaitable. Oui, mais...
La faillite, seul
outil efficace d'élimination des mauvais modèles
Revenons au sauvetage des caisses d'épargne américaines, puis
à celui de LTCM ou encore celui d'AIG. Si, pour les
caisses, les faillites du modèle mathématiques gaussien
n'apparaissent pas forcément clairement comme un facteur essentiel de
leur infortune (cf. cet article sur l'histoire de la réglementation bancaire US),
cette faillite est en revanche évidente dans le cas de LTCM ou d'AIG.
Dans les deux cas, le "risque systémique" a
été invoqué pour justifier l'appel au contribuable
américain pour sauver les créanciers de ces entreprises en
faillite.
Mais alors, pourquoi se priver d'utiliser les modèles gaussiens,
malgré les logiques court-termistes qu'ils induisent, puisque leurs
plus grands profiteurs en période faste verront les
conséquences de leurs défaillances absorbées par
l'état ? Pourquoi, dans un monde où les premiers de la course
touchent les meilleures primes, se priver de traverser l'Atlantique dans un
catamaran instable mais rapide plutôt que dans un monocoque rassurant
mais lent, si vous êtes à peu près certain qu'en cas de
malheur, l'hélicoptère de l'oncle Sam ou son cousin
européen viendront vous tirer de la noyade, à leurs frais ?
Certes, les gens ne sont pas heureux de faire faillite, surtout les
salariés des entreprises financières défaillantes, mais
si les dirigeants peuvent se garantir quelques années de gros bonus,
puis voir leurs privilèges sauvés par le contribuable quand la
tempête se déclare et menace d'emporter leurs frêles
esquifs, pourquoi perdre du temps et de l'énergie à
étudier les failles des modèles qui vous poussent à sous
estimer le risque ?
La
société du risque subventionné
Il me semble que le principal coupable dans la perpétuation de
l'erreur gaussienne collective soit la culture du "sauvetage",
pratiquée par tous les gouvernements envers nombre d'entreprises
emblématiques depuis les années 70: Chrysler, GM, les caisses
d'épargne, LTCM, et maintenant les grandes banques... En Europe aussi,
les grandes institutions financières ont intégré une
culture du sauvetage public.
Si les entreprises financières en faillite, leurs actionnaires et
leurs créanciers, avaient dû assumer jusqu'au dernier sou les
conséquences de l'incurie de leurs modèles de gestion du
risque, nul doute qu'ils auraient été pressés d'en
analyser les failles les plus criantes, et que les voix dissidentes des
disciples de Mandelbrot se seraient fait mieux entendre. Et nous n'en serions
pas sans doute aujourd'hui là où nous en sommes. Une gestion ordonnée et
rigoureuse des faillites est de loin le meilleur moyen de réguler l'économie
et de l'expurger de ses intervenants trop peu performants, ou trop
exposés au risque.
Si les formules des Markovitz, Sharpe, Scholes and co, n'avaient pas
existé, la culture du bailout, de la privatisation des profits et de
la socialisation des pertes, qui
constitue en fait une véritable subvention publique à la prise
de risque, aurait poussé tout de même le monde
de la finance à trouver d'autres outils justifiant l'adoption de leur
modèle à haut risque. La finance gaussienne n'est pas la cause
primaire du marasme financier, elle n'est "que" l'arme de
destruction massive choisie par ses acteurs parce que le risque est
subventionné.
Nos malheurs sont d'abord ceux d'une société où la privatisation des gains et la
collectivisation des pertes est devenue... la loi normale des affaires !
Bref, "Finance, le
nouveau paradigme" est un ouvrage hautement
recommandable.
Vincent Bénard
Objectif Liberte.fr
Vincent Bénard est Président de l'institut Hayek
(Bruxelles) et Senior Fellow de Turgot (Paris),
deux thinks tanks francophones dédiés à la diffusion de
la pensée libérale, et sympathisant des deux seuls partis
libéraux français, le PLD
et AL.
Publications
:
"Logement: crise publique,
remèdes privés", dec 2007, Editions Romillat
Avec
Pierre de la Coste : "Hyper-république,
bâtir l'administration en réseau autour du citoyen",
2003, La doc française, avec Pierre de la Cos