Une proposition pour repenser la « constitution » des marchés financiers, par Jacques-Olivier Charron

Billet invité.

Sous des dehors parfois complexes, la régulation des marchés financiers repose sur une idée simple : il faut et il suffit que tous les investisseurs soient correctement informés pour que tout aille bien. Par « aller bien », on entend que les actifs financiers s’échangent à leur valeur fondamentale. Cette idée, qui fonde en quelque sorte la « constitution » des marchés financiers, est basée logiquement sur les deux présupposés suivants :

– il existe une vérité objective de la valeur des actifs financiers, que l’on qualifie de « valeur fondamentale ». « Vérité objective de la valeur » signifie ici une valeur parfaitement indépendante de ce que pensent et décident les investisseurs, ces derniers étant définis comme les acteurs qui prennent effectivement les décisions d’achat et de vente de titres.

– il existe un ensemble fini d’informations, que le régulateur est capable d’identifier et de délimiter, qui permet d’estimer la valeur fondamentale définie en ce sens.

Les problèmes que posent ces hypothèses découlent avant tout de la nature même de ces biens très particuliers que sont les actifs financiers : ce sont des promesses de revenus futurs. Dire qu’ils ont une valeur objective, c’est dire que le futur, en tout cas tout ce qui dans le futur aura un impact sur ces revenus, est objectif. A la suite d’André Orléan, nous considérons cette « hypothèse d’objectivité du futur » comme intenable.

A partir de là, comment refonder la régulation des marchés financiers sur des bases différentes ? Cette régulation existe avant tout pour s’assurer que ces marchés respectent une forme de bien commun. On peut repartir de l’argument le plus général que l’on donne pour justifier l’existence des marchés financiers : la négociabilité des risques. Il consiste à dire qu’en rendant liquides, donc négociables sur un marché, des biens tels que des titres de propriété, des parts d’emprunt, ou des produits dérivés sur ces biens, on réduit le risque pour les détenteurs de ces biens. Le point que nous soulignons alors est qu’en même temps que la négociabilité de ces titres est instaurée, est instaurée aussi la façon dont leurs prix sont produits, sur la base d’un mode d’interdépendance liant les investisseurs entre eux. Nous proposons, à partir de là, une dissociation entre négociabilité et valorisation.

Il peut exister en effet des biens qui soient formellement négociables mais dont le prix soit fixé par une autorité extérieure. Dans le cas des actifs financiers, on aurait le droit d’en acheter ou d’en vendre, mais à la condition de trouver une contrepartie qui accepte de conclure la transaction à ce prix fixé par cette autorité. Leur négociabilité, réductrice de risques, serait préservée ; en revanche la volatilité de leur valorisation, importante source de risque, serait fortement diminuée.

Notre proposition se fonde sur l’idée que la valeur des actifs financiers présente deux caractéristiques remarquables :

– c’est un enjeu pour la collectivité, pour la société dans son ensemble.

– il n’y a pas de vérité objective ou scientifique de cette valeur.

Les objets présentant ces deux caractéristiques sont des objets politiques. L’autorité dont nous parlons serait donc une instance politique, soit directement élue, soit désignée par des élus. En même temps sa procédure de décision inclurait l’écoute des arguments des différentes parties prenantes, le recours à une expertise ou à différentes formes d’expertise. Elle serait plus proche d’une procédure judiciaire que d’une procédure parlementaire. Il s’agit en somme de concrétiser sous une forme institutionnelle le fait que la valorisation d’un actif financier résulte d’un jugement, et que ce jugement a des conséquences pour la collectivité.

Le développement de notre idée part d’une discussion de la théorie de l’efficience informationnelle, qui constitue le fondement académique de l’ « idée simple » dont nous parlions au départ. Après une critique de cette théorie menée dans le cadre de sa propre épistémologie, nous avancerons une réflexion sur ce qui fait qu’on y a toujours recours en pratique, avant de développer un peu plus notre proposition alternative sur la régulation.

L’efficience informationnelle comme « constitution » de la finance : critique théorique, compréhension pratique, proposition d’alternative

Essai sur le fondement théorique de la régulation des marchés financiers

Jacques-Olivier CHARRON
Doctorant en sciences de gestion, CNAM-LIPSOR
jcharron@magic.fr
7 juin 2009

Ne pas citer ou reproduire sans autorisation de l’auteur

Introduction

Le fondement théorique principal de la régulation des marchés financiers est la théorie de l’efficience informationnelle. De façon générale il réside dans le raisonnement suivant lequel la diffusion de l’information pertinente aux investisseurs leur permet d’estimer la valeur fondamentale des actifs, et que c’est ce qui permet in fine à la valeur cotée sur les marchés de ces actifs financiers de ne pas s’éloigner durablement de cette valeur fondamentale. Cette idée se décline en particulier dans ce que nous avons appelé par ailleurs l’idéologie de la transparence (Charron, 2004) qui renvoie à la fois à l’idée que la diffusion de l’information est destinée aux investisseurs pour leur permettre d’accéder à la vérité de la valeur des actifs financiers, et que cette vérité de la valeur, cette valeur fondamentale ou intrinsèque a un caractère objectif (1).

L’efficience informationnelle est une des deux principales acceptions de l’hypothèse de marchés efficients, l’autre étant l’efficience technique que l’on peut résumer par l’idée qu’un investisseur ne peut pas « battre le marché », ne peut obtenir un rendement supérieur à celui du marché, en tout cas pas de façon durable et significative (Bourghelle, Brandouy, Orléan, 2005) (2).

L’hypothèse d’efficience informationnelle, seule, permet de fonder théoriquement la politique des régulateurs. L’efficience technique ne peut pas jouer ce rôle puisqu’elle n’établit pas de lien entre information, valeur fondamentale et évolution des cours : elle se contente de poser que cette évolution obéit à certaines caractéristiques statistiques. C’est donc la théorie de l’efficience informationnelle qui sert en quelque sorte de « constitution » aux marchés financiers (3).

Il en résulte que les crises financières sont aujourd’hui pensées par les régulateurs, mais aussi bon nombre d’économistes et de responsables gouvernementaux, comme résultant de problèmes de transmission d’informations.

Ces crises sont des périodes de remise en cause de la valorisation des actifs financiers : les actions d’Enron ou de WorldCom, les actions des start-up ou plus largement des entreprises de haute technologie, les produits dérivés issus de la titrisation de différentes formes de crédit et par ricochet les valeurs financières et immobilières ont été plus ou moins soudainement considérés comme grossièrement surévalués. Tout cela ne serait pas arrivé, pense-t-on, si l’information permettant la valorisation correcte de ces titres avait été diffusée à tous.
Cette façon d’appréhender les crises financières n’est en un sens pas nouvelle. Les présenter en expliquant que les investisseurs ont été trompés ou abusés est très classique, et cela renvoie implicitement à l’idée qu’ils n’ont pas eu la bonne information, celle qui leur aurait révélé la vérité objective de la valeur. Ce qui est plus récent, c’est la justification théorique de ce cadre interprétatif et la façon dont cette théorie est traduite et mise en œuvre par des institutions et dans des réglementations. C’est ce qui donne sa force et sa prégnance particulière à des versions formalisées et rigoureuses de cette vieille idée.

Il semble qu’après chaque crise les régulateurs et les membres de la communauté financière (gérants, brokers, analystes, investisseurs institutionnels…) font des hypothèses sur les informations qu’ils auraient dû avoir et qui, pensent-ils, auraient pu permettre de l’éviter ; les autorités de régulation édictent des recommandations et mettent en œuvre des réglementations qui découlent de ces hypothèses, jusqu’à l’arrivée d’une nouvelle crise qui amène à se reposer les mêmes questions, parfois sous des formes différentes. Il s’avère, en somme, qu’encore une fois les investisseurs n’avaient pas l’information qu’ils auraient dû avoir…

Nous examinerons d’abord la question de la validité scientifique de la théorie de l’efficience informationnelle, avant de se pencher sur le rôle que lui font jouer les acteurs qui font vivre les marchés financiers et sur ce qui peut expliquer ce rôle. Nous conclurons en essayant d’esquisser de quelle façon la régulation des marchés financiers pourrait être repensée sur la base des impasses auxquelles semble se heurter son fondement théorique traditionnel.

1. Les limites de la théorie de l’efficience informationnelle

Une différence majeure entre efficience technique et efficience informationnelle est que la première n’est qu’un modèle descriptif alors que la seconde est un modèle explicatif. La première nous dit essentiellement que l’évolution des cours est imprévisible et suit une marche au hasard, ce qui implique que tout pari directionnel est voué à l’échec ; il s’agit d’une caractérisation statistique, donc d’une description de l’évolution des cours. La seconde nous dit que l’évolution des cours reflète celle de la valeur fondamentale des titres via la prise en compte de l’information, qui permet d’estimer cette valeur fondamentale ; l’évolution de cette dernière est donc le facteur explicatif unique de l’évolution des cours. Walter (1996) a relevé chez Fama (1965, 1970) ce passage du descriptif (déjà présent chez Bachelier (1900)) à l’explicatif.

En situation d’efficience informationnelle, les cours reflètent à tout instant l’information disponible et, dans la mesure où cette propriété est vérifiée, ils sont aussi à tout instant les meilleurs estimateurs de la valeur fondamentale des titres.

Cette hypothèse a été déclinée par Fama (1970) sous trois formes différentes, suivant le type d’information qui est instantanément intégré dans le cours : dans l’efficience faible, seule l’information sur l’historique de cours est instantanément intégrée ; dans l’efficience semi-forte, toute l’information publique sur les titres est elle aussi instantanément intégrée ; enfin, dans l’efficience forte, absolument toute l’information, même privée et confidentielle, est instantanément intégrée. Une information qui n’est pas instantanément prise en compte, intégrée dans le cours, est une information dont un investisseur peut tirer parti. Elle seule permet en effet d’anticiper l’évolution de la valeur fondamentale et donc de tirer profit d’un pari directionnel puisqu’il existe dans ce cas un écart temporaire entre cours et valeur fondamentale.

Ce qui fonde la validité d’une hypothèse de ce type, c’est la possibilité de la tester de façon concluante. C’est particulièrement vrai dans le cas qui nous occupe. En effet, la position épistémologique de Milton Friedman, dans le sillage duquel se sont situés les fondateurs de la théorie de l’efficience, était de type instrumentaliste, inspirée du positivisme logique du Cercle de Vienne, ce qui implique notamment que la validité scientifique d’une théorie ne repose pas sur le réalisme de ses hypothèses mais sur sa capacité à fonder des prédictions testables. C’est ce qui fonde l’ « économie positive » friedmanienne. La discussion de la validité scientifique de la théorie de l’efficience informationnelle est donc une discussion de son mode de test.

On pourrait penser spontanément que la meilleure façon de tester l’efficience informationnelle serait de comparer directement évolution du cours et évolution de la valeur fondamentale pour un actif financier (ou une classe d’actifs financiers) donné(s). C’est ce qu’a tenté de faire en particulier Shiller (1981), qui a réalisé ce test avec trois définitions différentes de la valeur fondamentale. Il ressortait clairement de cette recherche que, dans tous les cas, la volatilité des cours était beaucoup plus marquée que celle de la valeur fondamentale, en tout cas à un degré qui semblait permettre d’invalider la théorie de l’efficience informationnelle. Une partie importante de l’évolution des cours paraissait clairement décorrélée de la valeur fondamentale.

En pratique, le test de l’efficience informationnelle ne se fait généralement pas de cette façon. On chercher plutôt à identifier des rendements anormaux. Pourquoi ?

Pour comprendre d’où vient le test sur la base des rendements normaux, il faut revenir à la façon dont l’efficience a été formalisée par Fama (1970) en s’appuyant sur des travaux de Samuelson (1965) et Mandelbrot (1966). Ces travaux ont utilisé des modèles de jeu équitable qui sont une généralisation du modèle de marche au hasard initialement développé par Bachelier (1900). Fama définit ces modèles comme suit :

« Most of the available work is based only on the assumption that the conditions of market equilibrium can (somehow) be stated in terms of expected returns. In general terms, […] such theories would posit that conditional on some relevant information set, the equilibrium expected return on a security is a function of its “risk”. And different theories would differ primarily in how “risk” is defined.” (Fama, 1970, p. 384)

Le « rendement d’équilibre espéré » obtenu sur un marché financier par un investisseur rémunère le risque qu’il prend sur ce marché. Ce risque est défini par un modèle de jeu équitable. Fama revient ensuite plus précisément dans une note sur ce qui caractérise ce type de modèle :

“the “fair game” properties of the model are implications of the assumptions that (i) the conditions of market equilibrium can be stated in terms of expected returns and (ii) the information is fully utilized by the market in forming equilibrium expected returns and thus current prices.” (Fama, 1970, p. 385)

On observe ici le type de lien entre modèle de jeu équitable et intégration de l’information : ce type de modèle pose par hypothèse que l’information est pleinement et instantanément intégrée. Par conséquent tester ce type de modèle c’est aussi tester l’intégration instantanée de l’information. Or le test d’un modèle de jeu équitable se fait en observant si des écarts se manifestent par rapport à la rémunération du risque, au « rendement d’équilibre espéré » qu’on appellera par la suite plus simplement rendement normal. La rémunération du risque équivaut par hypothèse à l’intégration complète et instantanée de l’information pertinente ; il en découle que l’observation de rendements s’écartant de cette rémunération, en d’autres termes de rendements anormaux, signifie que de l’information n’a pas été intégrée complètement et/ou instantanément.

L’évolution de la valeur fondamentale est, nous l’avons dit, le seul facteur explicatif de l’évolution du cours dans ce cadre théorique. Pour comprendre comment Fama établit le lien entre explication des mouvements de cours par des mouvements de la valeur fondamentale et intégration de l’information testée à l’aide d’une modélisation du risque, il faut revenir aux textes (Fama, 1965, 1970) pour voir plus précisément comment cette notion de valeur fondamentale y est comprise et reliée à une modélisation probabiliste.

Le fait est que l’efficience informationnelle a été pensée par Fama et ses successeurs comme assurant que le cours représente une valeur fondamentale pensée comme objective, i.e. indépendante du fonctionnement du marché et de ce que peuvent décider ou penser ses acteurs. Si l’information est intégrée (et c’est ce qu’on teste en regardant s’il y a des rendements anormaux), alors le cours reflète la vérité de la valeur, une valeur fondamentale objective. Mais alors c’est ce fait qu’il faut expliquer : pourquoi a-t-on besoin de poser dans ce cadre ce qu’Orléan (2005) a justement appelé l’ « hypothèse d’objectivité de la valeur » ?

Il nous semble que la réponse est liée au passage du descriptif à l’explicatif dont nous avons déjà parlé : les mouvements de cours ayant été décrits par Bachelier (1900) sur le mode d’un phénomène objectif relevant des sciences de la nature et Fama reprenant à son compte ce mode de description, ils ne pouvaient à partir de là être expliqués que par un facteur posé comme tout aussi objectif et « naturel » (4). L’objectivité dont il est question ici est avant tout extériorité totale par rapport aux acteurs : les acteurs sont face à ce phénomène, qui leur est extérieur, ils n’en sont pas partie prenante. C’est parce que Fama a repris à son compte la compréhension, initiée et formalisée par Bachelier, des mouvements de cours de Bourse comme totalement extérieurs aux acteurs qu’il ne pouvait penser un facteur explicatif de ce mouvement que comme tout aussi extérieur aux acteurs : la valeur fondamentale ne peut qu’être objective parce que ce qu’elle explique et qui la reflète est objectif.

L’idée générale exprimée par Bachelier dès 1900 est que les marchés « ne pensent rien », ne sont ni haussiers ni baissiers : il n’y a pas de tendance, les mouvements de cours s’effectuent de façon aléatoire et leur étude relève donc de l’étude du hasard telle qu’elle a été développée et formalisée par les approches probabilistes. C’est l’hypothèse de marche au hasard.

Bachelier part du fait que la fixation du cours pour une transaction sur un marché boursier confronte acheteurs (logiquement haussiers) et vendeurs (logiquement baissiers), et en déduit que le marché en tant que tel n’est ni haussier ni baissier : « pour chaque cours coté, il y a autant d’acheteurs que de vendeurs ». « le marché ne croit, à un instant donné, ni à la hausse, ni à la baisse du cours vrai. » On en déduit que « l’espérance mathématique du spéculateur est nulle. » Bachelier précise : « Si le marché, en effet, ne prévoit pas les mouvements, il les considère comme étant plus ou moins probables, et cette probabilité peut s’évaluer mathématiquement. » (Bachelier, 1900, cité par Walter, 1996, p. 877) (5).

Fama, dans son article de 1965, s’est notamment attaché à montrer que cette approche de la « marche au hasard » était compatible avec l’idée que les cours reflètent la valeur fondamentale des titres.

Le problème qu’il se pose est le suivant : si les déplacements de prix successifs sont indépendants, que peut-on dire sur ce qui détermine ces déplacements ? A cette réponse il ne voit que deux réponses possibles : soit les investisseurs se déterminent au hasard, suivant leur caprice (« whim »), soit ils sont concentrés sur l’estimation de la valeur fondamentale des actifs financiers. Le passage vaut d’être cité en entier :

« Independence of successive price changes for a given security may simply reflect a price mechanism which is totally unrelated to real-world economic and political events. That is, stock prices may be just the accumulation of many bits of randomly generated noise, where by noise in this case we mean psychological and other factors peculiar to different individuals which determine the types of « bets » they are willing to place on different companies. Even random walk theorists, however, would find such a view of the market un-appealing. Although some people may be primarily motivated by whim, there are many individuals and institutions that seem to base their actions in the market on an evaluation (usually extremely painstaking) of economic and political circumstances. That is, there are many private investors and institutions who believe (6) that individual securities have « intrinsic values » which depend on economic and political factors that affect individual companies.” (p. 36)

L’existence de la valeur fondamentale (« intrinsic value ») des titres est ici présentée comme une croyance dont on constate l’existence chez “beaucoup” d’investisseurs et d’institutions. Or, dès la phrase suivante, la valeur fondamentale cesse d’être une croyance observée pour devenir un fait dont l’existence est indiscutable : le problème qui se pose dans la relation entre théorie de la marche au hasard et valeur fondamentale, c’est qu’il faut montrer que la théorie de la marche au hasard est compatible avec l’existence indiscutée de la valeur fondamentale :
“The existence of intrinsic values for individual securities is not inconsistent with the random-walk hypothesis. In order to justify this statement, however, it will be necessary now to discuss more fully the process of price determination in an intrinsic-value-random-walk-market. Assume that at any point in time there exists, at least implicitly, an intrinsic value for each security.” (p. 36)

Nous pouvons ensuite constater que le travail de caractérisation statistique qui consiste dans cet article à tester l’hypothèse de marche au hasard revient à regarder à quelle type de loi obéit la série des déplacements de prix, en considérant en somme cette série exactement comme un phénomène dont l’objectivité est du type de celle qui est censée caractériser les sciences de la nature (variation de température, de pression etc.) (7).

Or on ne voit pas comment un phénomène objectif de ce type pourrait être expliqué par une croyance ou plus généralement par un facteur socialement construit : si le déplacement des cours, statistiquement caractérisé comme une marche au hasard, est considéré comme un phénomène naturel, il ne peut être déterminé que par un facteur tout aussi naturel et objectif que, par exemple, la pression atmosphérique ou la température extérieure.

Il est donc nécessaire, dans la logique de ce raisonnement, que, si le déplacement des cours est déterminé par un facteur quelconque, il faut que ce facteur existe « dans la nature », i.e. de façon totalement indépendante des acteurs et du fonctionnement du marché, antérieurement à l’échange (ex ante). Il faut que la valeur fondamentale de l’actif financier existe aussi sûrement que la température extérieure : le seul problème est de trouver un thermomètre qui fonctionne correctement. C’est parce que le naturel ne s’explique pas par le social que la valeur fondamentale ne peut être qu’un fait objectif et non une croyance observée.

Fama développe ensuite (p. 36 à 39) un raisonnement qui consiste à montrer que les deux propositions suivantes :

(1) les prix des titres suivent une marche au hasard

(2) les prix des titres reflètent à tout instant leur valeur fondamentale

sont compatibles, ce qui est contre-intuitif : on pourrait en effet penser, spontanément, que si les cours suivent leur valeur fondamentale, ils ne se déplacent pas au hasard. C’est de cette compatibilité (« consistent with ») que parle l’auteur lorsqu’à la fin de l’article il introduit la notion d’efficience. En d’autres termes il s’agit de montrer que l’explication (par la valeur fondamentale) est compatible avec la description (marche au hasard).

Le raisonnement est fondé essentiellement sur le rôle de l’arbitrage (8) : l’idée est qu’il existe sur le marché des intervenants plus avisés que d’autres (il parle à plusieurs reprises d’ « astute traders ») qui sont dotés d’une capacité particulière à estimer la valeur fondamentale des titres.

On peut résumer le raisonnement de Fama sur le lien entre cours et valeur fondamentale en trois propositions :

(1) la valeur fondamentale d’un actif financier existe ex ante.

(2) au moins une partie des intervenants sur le marché est capable de l’estimer.

(3) ces intervenants utilisent cette connaissance de la façon suivante : quand ils voient que le cours d’un titre s’écarte de sa valeur fondamentale, ils anticipent son retour à cette valeur et prennent des positions sur le marché en fonction de cette anticipation, ce qui ramène effectivement le cours à sa valeur fondamentale.

La proposition (3) présuppose la proposition (2), qui elle-même présuppose la proposition (1).

Reste que Fama, dans cet article, n’a fait que démontrer la compatibilité de la marche au hasard et de la détermination par la valeur fondamentale. L’article de 1970 ira plus loin en se fondant sur les modèles de jeu équitable (Samuelson, 1965 ; Mandelbrot, 1966) qui sont en fait des généralisations du modèle de marche au hasard sous la forme de modélisations du risque permettant de déterminer un rendement normal, notion servant dès lors de base aux tests d’efficience, comme nous l’avons vu. Ces modèles posent toujours l’intégration des informations, censée expliquer les variations de cours, comme un phénomène aléatoire : « si l’information arrive de manière imprévisible sur le marché, alors il est possible de modéliser les variations des prix actualisés des actifs financiers (la « valeur actuelle » des financiers) comme les résultats de tirages aléatoires indépendants : les prix actualisés des actifs suivent des martingales. » (Walter, 1996)

Fama pose, nous l’avons vu, que ces modèles supposent l’efficience informationnelle, pensée comme assurant que le cours reflète la valeur fondamentale : il n’est plus question de compatibilité mais d’implication. L’important pour lui est de disposer dès lors d’un modèle à la fois explicatif et testable, dans la logique de l’ « économie positive » friedmanienne.

Récapitulons : la valeur fondamentale d’un actif financier est comprise comme objective parce qu’elle est le facteur explicatif d’un phénomène (l’évolution des cours) qui est compris comme objectif via une modélisation du risque. Sur cette base s’est imposé un mode de test qui consiste non pas à comparer directement évolution du cours et évolution de la valeur fondamentale, comme l’a fait Shiller, mais à vérifier si l’évolution du cours obéit bien à une modélisation du risque dont on suppose qu’elle correspond à l’intégration de l’information permettant d’estimer la valeur fondamentale.

Ce mode de test de l’efficience informationnelle pose, nous semble-t-il, au moins deux problèmes.

Le premier avait été perçu dès l’origine par Fama, dans son article de 1970. C’est ce qu’il a appelé par la suite le problème de l’hypothèse jointe : ce qui est testé n’est pas directement l’efficience informationnelle, donc l’intégration complète et instantanée de l’information pertinente dans le cours, mais, de façon jointe, l’efficience informationnelle et un modèle d’évaluation du risque, la rémunération du risque traduite par un rendement normal équivalant par hypothèse à une situation d’efficience informationnelle.

Fama exprime le problème sous cette forme :

“we should note right off that, simple as it is, the assumption that the conditions of market equilibrium can be stated in terms of expected returns elevates the purely mathematical concept of expected value to a status not necessarily implied by the general notion of market efficiency. The expected value is just one of many possible summary measures of a distribution of returns, and market efficiency per se (i.e., the general notion that prices “fully reflect” available information) does not imbue it with any special importance. Thus, the results of tests based on this assumption depend to some extent on its validity as well as on the efficiency of the market. But some such assumption is the unavoidable price one must pay to give the theory of efficient markets empirical content.” (Fama, 1970, p. 384)

En d’autres termes, le modèle de risque utilisé (pour Fama et la plupart de ses successeurs ce fut le MEDAF) n’est pas le seul possible, mais la part d’arbitraire qui consiste à en choisir un parmi d’autres est le prix à payer pour que la théorie des marchés efficients soit testable.

Le deuxième problème est l’absence de définition, de délimitation a priori de l’information pertinente. Que peut-on dire du rapport entre la pertinence de l’information et le mode de test que nous avons décrit ? Concrètement, pour le mettre en œuvre, on regarde si, au voisinage de la date de divulgation d’une information donnée, on observe des rendements anormaux. Et alors, sous réserve qu’on ait correctement contrôlé les autres facteurs, de deux choses l’une :

-soit il n’y a pas de rendements anormaux, en tout cas pas à un degré significatif. Cela veut dire que l’information en question est intégrée dans le cours.

-soit il y a des rendements anormaux. Cela signifie que cette information n’est pas intégrée dans le cours. La théorie des marchés efficients nous explique alors que cette non-intégration est nécessairement provisoire : des investisseurs avisés vont repérer l’inefficience et, en en tirant parti par des paris directionnels, vont la résorber.

Le point sur lequel nous pouvons attirer l’attention est le fait que, dans les deux cas, on suppose que l’information que l’on teste est pertinente. En effet, si elle ne l’est pas, en d’autres termes s’il n’y a pas de raison pour qu’elle ait un impact sur la valeur fondamentale, alors on ne peut pas tirer de conclusion de ce que l’on observe. Que l’on constate ou non l’existence de rendements anormaux au voisinage de la date de divulgation de l’information, il n’y aura de toute façon aucune raison pour que cela soit en rapport avec cette information, et on ne pourra donc rien inférer.

Cela signifie qu’on ne peut rien dire, en toute rigueur, sur la relation entre information et cours si l’on ne définit pas a priori l’information pertinente. Il faut donc, a priori, disposer d’un ou plusieurs critère(s) permettant de distinguer ex ante dans l’ensemble de l’information disponible celle qui est pertinente de celle qui ne l’est pas.

Or la seule définition de l’information pertinente que l’on peut tirer des textes fondateurs de la théorie est que c’est l’information qui contribue à l’estimation de la valeur fondamentale. En d’autres termes, quand on cherche une définition de l’information pertinente, on est renvoyé à la définition de la valeur fondamentale.

Il existe bien sûr plusieurs définitions de la valeur fondamentale d’un actif financier, mais elles peuvent se résumer de la façon suivante : il s’agit de la somme actualisée des flux de revenus futurs générés par cet actif. Estimer la valeur fondamentale repose donc à la fois sur une anticipation (de flux de revenus futurs) et sur le choix d’un taux d’actualisation. Poser cette notion comme objective, comme c’est le cas dans le cadre de la théorie de l’efficience informationnelle, c’est par conséquent poser (au moins) ce qu’André Orléan a appelé « l’hypothèse d’objectivité du futur » (Orléan, 2006) (9). Nous suivrons cet auteur pour considérer cette hypothèse comme logiquement intenable : l’estimation de la valeur fondamentale d’un actif financier est irréductiblement subjective, notamment parce que deux acteurs également rationnels et disposant des mêmes informations peuvent parfaitement retenir des scénarios différents pour le futur et donner deux estimations dont aucune ne peut être considérée comme plus objective, rationnelle ou informée que l’autre. Nous citerons aussi ici l’un des arguments qu’il avance : l’objectivité du futur « is incompatible with the free will of agents as modelled by this very same economic theory. If we believe in individual free will, then the future must be considered to be undetermined and contingent: it is the product of individual decisions, including those taken in the sphere of finance.” (Orléan, 2006, p.8) Elle est aussi incompatible, plus spécifiquement, avec l’idée que les marchés financiers jouent un rôle actif en termes d’allocation des ressources à l’économie. “Clearly, there is a fundamental logical contradiction in assuming simultaneously that the markets reflect a pre existing reality and that their presence is capable of improving, and therefore transforming, the functioning of the economy.” (ibid., p. 8). L’idée d’une valeur fondamentale objective déterminant l’évolution des cours des actifs financiers implique en fait que cette évolution n’a aucun impact sur l’économie dite « réelle » (résultats et dividendes des sociétés cotées, taux de défaut sur les remboursements d’emprunts etc.), qu’elle n’en est que le simple reflet. Il n’est pas besoin d’avoir vécu ou de vivre des situations de crise financière pour considérer cette idée comme intenable.

La valeur fondamentale d’un actif financier n’existe pas ex ante, et il en découle qu’il est impossible de délimiter a priori l’information permettant de l’estimer, donc l’information pertinente, celle sur laquelle doit être testée l’efficience informationnelle.

En résumé, le mode de test de l’efficience informationnelle souffre d’une part irréductible d’arbitraire dans le choix de la modélisation du risque permettant de réaliser le test et d’une impossibilité de séparer a priori l’information pertinente de celle qui ne l’est pas.

L’invalidation du mode de test entraîne, dans son propre cadre épistémologique, celle de la théorie. Il n’en demeure pas moins que cela ne suffit pas, selon nous, à disqualifier cette théorie en tant que fondement de la régulation des marchés financiers. Il convient en effet de distinguer la question de la validité scientifique d’une théorie de celle du rôle qu’elle peut jouer pour fonder logiquement, justifier et légitimer en pratique des règles et des institutions. Si la discussion de la théorie de l’efficience informationnelle n’avait d’enjeu qu’académique, nous pourrions ne pas aller plus loin. Or il est clair que tel n’est pas le cas. Simplement, si l’on veut aborder la question du rôle que joue cette théorie dans le fonctionnement réel des marchés financiers, il faut s’interroger en particulier sur les besoins qu’elle satisfait dans ce cadre ; c’est ce que nous allons maintenant tenter de faire.

2. Pratiques de la théorie financière et modes d’interdépendance

La dépendance envers une modélisation du risque particulière et discutable (10) et l’impossibilité de délimiter clairement a priori l’information pertinente remettent en cause le mode de test de la théorie de l’efficience informationnelle et in fine la théorie elle-même. Il n’en demeure pas moins que, concrètement, les investisseurs sont contraints, le plus souvent, d’utiliser une modélisation du risque et, toujours, de sélectionner dans l’ensemble d’informations dont ils disposent celles qu’ils vont effectivement utiliser pour décider. L’utilisation de modélisations du risque ressort de l’approche distributionnelle des marchés financiers, i.e. de la perception de l’évolution des cours comme relevant d’une forme de hasard probabilisable, qui s’est imposée très majoritairement au cours des dernières décennies chez les investisseurs professionnels, reléguant à la marge l’approche directionnelle qui caractérise en particulier l’analyse technique et qui consiste à percevoir l’évolution des cours comme une succession de mouvements haussiers et baissiers, différents outils et indicateurs permettant de repérer ces tendances et d’essayer d’anticiper les changements de tendance. En pratique il reste possible pour un investisseur de ne pas recourir à une modélisation du risque ; en revanche il est impossible de ne pas sélectionner l’information, particulièrement en un temps où au développement des agences de presse spécialisées (Reuters, Bloomberg), acquis dès les années 80, s’est ajouté le développement d’Internet et les capacités accrues de diffusion rapide d’informations de toute sorte (provenant d’agences, de médias généralistes, de médias spécialisés, mais aussi plus récemment de forums, de blogs etc.) (11). Souligner les insuffisances du cadre théorique qui fonde la régulation des marchés financiers et constitue un des piliers, voire le principal pilier de la théorie financière ne suffit donc pas lorsque cela laisse ouvertes des questions que les investisseurs sont obligés de trancher pour pouvoir travailler.

La théorie financière, en particulier la « théorie moderne du portefeuille » et la théorie de l’efficience, a accompagné le développement de la finance et en a largement structuré les pratiques professionnelles (Bernstein (2000), Rainelli (2003), Mackenzie (2006)). Une critique ne peut fonder une alternative pratique au rôle que joue ce cadre théorique que si elle répond aux besoins des acteurs de la communauté financière, faute de quoi elle est d’avance condamnée à rester dans le champ clos des controverses académiques.

Nous allons donc nous demander à quels besoins de ces acteurs répondent les outils tirés de la théorie financière. Nous le ferons précisément en considérant les investisseurs comme des acteurs et en comprenant leur rôle comme une façon de s’inscrire dans des modes d’interdépendance. Cette approche relève des sciences sociales et plus précisément de la sociologie dans l’acception qu’en donnait Norbert Elias. Dans « Qu’est-ce que la sociologie ? » (Elias, 1993), ce dernier fonde sa définition de la discipline sur une représentation de la société comme un ensemble de modes d’interdépendance ou de configurations, représentation qui se substitue à une perception de la société comme réalité extérieure à l’individu (p. 9-10).

Nous poserons que les investisseurs sont pris dans deux modes d’interdépendance :

-l’interdépendance entre les investisseurs, dont les modalités déterminent l’évolution des cours des actifs financiers. Cette évolution résulte en effet concrètement, sur une période donnée, de l’ensemble des décisions d’achat et de vente prises par les investisseurs. Chaque investisseur pris individuellement a pour objectif de maximiser le rendement de ses placements financiers (12). Ce rendement dépend de l’évolution des cours, et cette évolution dépend d’un ensemble de décisions prises par un ensemble d’investisseurs dont lui-même fait partie. Pour chaque investisseur pris isolément, atteindre ses objectifs dépend de la façon dont ses décisions et celles des autres investisseurs vont interagir. Les investisseurs sont donc interdépendants entre eux, chacun dépendant des autres.

Nous pouvons remarquer ici ce qui nous sépare de la théorie de l’efficience informationnelle en termes de modèle explicatif : à une explication de l’évolution du cours par la variation d’une valeur fondamentale pensée comme objective via l’intégration instantanée de l’information sur cette valeur ainsi considérée se substitue une description factuelle de ce qui provoque les mouvements de cours, à savoir des ordres passés par les investisseurs, sans relier immédiatement ces ordres à un facteur objectif, donc en laissant ouverte une explication donnant aux investisseurs un rôle actif. Plus précisément la relation entre l’information dont disposent les investisseurs et la décision qu’ils prennent n’est pas pensée comme automatique et/ou non problématique, notamment parce qu’on admet chez les investisseurs une capacité à produire du sens à partir de l’information, une capacité interprétative (13). Nous reviendrons ultérieurement sur ce point, ainsi que sur le mode de test qui pourrait correspondre à ce type d’approche.

-l’interdépendance entre les investisseurs et les autres membres de la communauté financière, dont les modalités déterminent la façon dont les décisions d’investissement sont justifiées et légitimées.

Si l’on considère, comme nous le faisons dans ce texte, comme « investisseur » l’acteur qui prend effectivement les décisions d’achat ou de vente de titres, alors cet investisseur est, le plus souvent, un gérant de fonds ; mais, d’une part, il peut être aussi un particulier investissant en direct ou un trader s’il intervient sur compte propre et non pour le compte d’un client, et d’autre part et surtout ce gérant n’est pas un acteur isolé : il s’inscrit dans le cadre d’un ensemble complexe de relations d’interdépendance. Il gère des fonds qui ne lui appartiennent pas, dont la gestion est déléguée par des clients qui sont souvent des investisseurs institutionnels, donc des institutions à qui des particuliers ont confié leur épargne. Il existe aussi des fonds de fonds, i.e. des fonds dont les gérants ne sont pas des investisseurs au sens où nous avons défini ce terme puisqu’ils n’opèrent pas directement sur des actifs financiers : ils confient la gestion de l’argent qui leur a été confié à tout un ensemble de fonds qu’ils sélectionnent. Les gérants de fonds emploient par ailleurs des analystes financiers dits « buy-side » qui sont chargés de leur faire des recommandations (d’achat ou de vente de titres) ainsi que des prévisions (sur les indicateurs censés selon eux avoir un impact sur la valeur fondamentale des titres). Enfin ils délèguent le plus souvent l’exécution de leurs ordres à des brokers (14) qui emploient aussi des analystes financiers, dits alors « sell-side ».

Ce paysage, déjà passablement plus complexe que la vision commune de la théorie financière d’un « investisseur » compris comme un individu isolé gérant son propre argent et confronté à un « environnement » extérieur caractérisé par une forme de risque, est encore simplifié par rapport à la réalité. Il permet néanmoins de comprendre que la prise de décision de l’investisseur est généralement inscrite dans un ensemble de relations d’interdépendance.
Nous nous focaliserons sur la plus déterminante : la relation entre les gérants de fonds et les investisseurs institutionnels (15). Les gérants de fonds, qui sont la majorité des investisseurs réellement existants et en tout cas les plus influents d’entre eux, doivent garder leurs clients et si possible en conquérir de nouveaux. De leur côté les plus importants de ces clients, qui sont les investisseurs institutionnels, s’inscrivent dans une socio-histoire qui les a conduits à déléguer une grande partie de leur gestion et en tout cas à adopter les normes de décision des gérants de fonds professionnels (16). Chaque gérant pris individuellement a pour objectif, en plus de la maximisation du rendement des placements réalisés, de garder ses clients et si possible d’en conquérir de nouveaux. La réalisation de cet objectif dépend pour une part des rendements déjà obtenus (et nous avons vu que dans ce domaine les investisseurs sont interdépendants entre eux) mais aussi de la capacité à inspirer confiance, à convaincre qu’on est capable de dégager ces rendements à l’avenir. Elle dépend des modalités de la relation d’interdépendance entre gérants et institutionnels, ces modalités permettant plus ou moins d’assurer cette capacité à inspirer confiance.

Pour un gérant pris isolément, l’atteinte de ses objectifs, i.e. l’obtention de la faveur du marché (le rendement) tout comme celle de la faveur des clients (leur fidélisation ou leur conquête) dépendent de modes d’interdépendance grevés de fortes incertitudes. Sur ce que vont décider les autres investisseurs, on ne peut faire que des conjectures ; sur ce qui permet d’inspirer confiance aux clients, il n’y a pas non plus de vérité objective. Ce qu’il attendra de la théorie financière et des outils qui en sont issus, ce sont donc avant tout des moyens de réduire ces incertitudes.

Revenons à la question que nous nous posons dans cette partie : quelles sont les attentes des investisseurs à l’égard de la théorie financière ? Nous avons répondu avec la réduction de l’incertitude caractérisant les modes d’interdépendance dans lesquelles s’inscrivent ces investisseurs. Il nous semble que deux auteurs peuvent nous aider à donner un fondement théorique à cette réponse : il s’agit d’Herbert Simon et de Norbert Elias.

Du côté de Simon, notre intérêt s’est porté sur la relation qu’il établit, dans son texte consacré à la rationalité procédurale (Simon, 1976), entre la prise de décision faisant appel à ce type de rationalité et une certaine approche de l’incertitude. L’incertitude dont nous parlons n’est pas extérieure aux acteurs, comme c’est le cas dans les approches probabilistes ; elle ne caractérise pas l’environnement des investisseurs mais les modes d’interdépendance dans lesquels ils s’inscrivent. Cette façon de comprendre l’incertitude s’inscrit dans le cadre plus général de notre démarche de compréhension des marchés financiers : passer de la qualification d’un monde extérieur à un investisseur pensé comme observateur à la qualification des relations dans lesquelles s’inscrivent des investisseurs pensés comme acteurs (17). Or cette conception de l’incertitude était déjà exprimée dans le texte cité en référence, s’opposant à la conception développée dans le cadre de la théorie des anticipations rationnelles. Simon y évoque comme suit le texte fondateur de cette théorie : « In a well-known paper, my former colleague, John F. Muth, proposed to objectify the treatment of uncertainty in economics by removing it from the decision-maker to nature. » (Simon, 1976, p. 142). Or, en lisant cet article de Muth (1961), il s’avère qu’il visait lui-même Simon : le Simon qui avait défini et théorisé en 1958 la notion de rationalité limitée. Il semble que, chez Simon, l’élaboration de la notion de rationalité procédurale soit en fait une réélaboration de la rationalité limitée à la lumière de la critique venue entre-temps de la théorie des anticipations rationnelles. Et l’opposition à cette théorie se formule non pas en partant des limites des capacités cognitives des individus (comme c’était le cas pour la rationalité limitée) mais en posant que l’incertitude ou le risque n’est pas une caractéristique d’un environnement extérieur à l’acteur et sur lequel il n’a pas de prise. L’incertitude n’est pas une caractéristique intrinsèque de l’environnement : ce sont les acteurs qui font de cet environnement quelque chose de plus ou moins certain ou incertain. « As economics has moved from statics to dynamics […] it has become more and more explicit in its treatment of uncertainty. Uncertainty, however, exists not in the outside world, but in the eye and mind of the beholder. » (Simon, 1976, p. 142). L’incertitude existe « dans le regard et dans l’esprit » de l’acteur qui observe son environnement, elle ne caractérise pas cet environnement, pensé comme « naturel » et « objectif » par les théoriciens des anticipations irrationnelles, mais la façon dont cet environnement est considéré par l’acteur, donc la relation entre l’acteur et son environnement. La rationalité procédurale consiste précisément dans la mise en œuvre de procédures (au sens large du terme) qui visent à réduire l’incertitude comprise dans ce sens, l’incertitude qui caractérise la relation de l’acteur à son environnement. Simon l’oppose à la rationalité substantive, mais ne traite pas les deux formes de rationalité sur le même plan; en effet la rationalité substantive n’existe, selon lui, que dans la théorie économique, et la rationalité expérimentalement observable dans le monde réel est, elle, presque toujours procédurale. La rationalité substantive ne peut être réellement appliquée que dans quelques cas-limites, des situations triviales qui ne sont nullement représentatives de celles que vit un décideur économique ordinaire. Les acteurs, notamment parce qu’ils ne peuvent prédire l’avenir, ne peuvent être substantivement rationnels.

Si nous revenons au cas particulier de l’investisseur sur les marchés financiers, son environnement est tout simplement constitué des autres investisseurs et de ses clients, puisqu’il est lié à ces autres acteurs par des modes d’interdépendance dont le fonctionnement détermine l’atteinte de ses objectifs. Pour lui, le recours à la théorie financière et aux outils qui en sont issus peut être compris comme un exercice de rationalité procédurale : ce qu’il demande à cette théorie et à ces outils, c’est de réduire le degré d’incertitude de ses modes de relation à son environnement.

Pour comprendre comment cela s’opère, on peut partir de la façon dont les investisseurs qualifient l’information. Par qualification de l’information, nous entendons la combinaison de deux opérations : l’identification de l’information pertinente, l’interprétation de cette information. La qualification de l’information met en œuvre les capacités réflexives et interprétatives des investisseurs, sous la forme spécifique d’une capacité à produire du sens à partir de l’information. Nous avons vu que la théorie de l’efficience informationnelle ne donne pas de réponse satisfaisante à la question de l’information pertinente. Il n’en va pas de même de l’efficience technique. En effet l’idée générale qu’ « on ne peut pas battre le marché », tout à fait distincte de l’efficience informationnelle qui est le seul fondement théorique de la régulation des marchés financiers, aboutit logiquement à l’idée que le meilleur mode de gestion possible consiste à « répliquer » un indice représentatif du marché sur lequel on investit. Concrètement cela consiste à détenir un portefeuille composé de titres des valeurs composant l’indice, en respectant le poids relatif des différentes valeurs dans l’indice. Cette pratique de la gestion indicielle réduit à sa plus simple expression la qualification de l’information : la seule information pertinente est la composition de l’indice, et il n’y a aucun travail d’interprétation à faire. La gestion benchmarkée, plus répandue que la gestion indicielle et dominante dans les pratiques de gestion d’actifs, reprend la même idée de base mais avec plus de souplesse : elle consiste à détenir un portefeuille de titres composant un panier « de référence » (le benchmark) qui peut correspondre à un indice ou être plus personnalisé, mais en faisant dévier légèrement la poids relatif des titres par rapport à celui qu’ils ont dans le benchmark ; si les titres de la société A représentent 5% de l’indice de référence, on s’autorisera par exemple à en faire varier la part relative dans son portefeuille entre 4,5 et 5,5%. Les analystes financiers se sont d’ailleurs calés sur ces pratiques, ce qui explique pourquoi la plupart de leurs recommandations ne sont pas des recommandations d’achat ou de vente mais des recommandations de « surpondération » ou « sous-pondération » (18). Ici le travail de qualification de l’information est plus complexe, puisqu’il faut prendre en compte tout ce qui peut amener à sous-pondérer ou sur-pondérer, et que ces opérations peuvent être réalisées assez fréquemment ; en même temps la portée de ces opérations est tout de même soigneusement limitée par le recours au benchmark.

L’efficience technique, généralement associée à une modélisation du risque, a inspiré des pratiques qui, pour les investisseurs, réduisent fortement le travail de qualification de l’information et/ou en réduisent les conséquences. Ces pratiques réduisent aussi l’incertitude qui affecte la relation aux autres investisseurs. En effet, se caler sur un indice, c’est se caler sur ce que décident les autres investisseurs sur les titres composant l’indice, et ce, sans même avoir besoin d’observer ce qu’ils font. Cela ne préjuge pas de ce qu’ils vont faire par la suite : c’est simplement un comportement de suiveur de tendance. C’est clairement le cas avec la gestion indicielle, ce l’est à peu de choses près avec la gestion benchmarkée. La réduction d’incertitude dans le mode d’interdépendance entre investisseurs advient dans la mesure où ces modes de gestion deviennent dominants, et c’est ce qui s’est passé historiquement, en particulier, en Europe, dans les années 90 (Kleiner, 2003), et bien avant aux Etats-Unis (Montagne, 2006).

Du côté d’Elias, la notion d’interdépendance est centrale. Elle fonde d’ailleurs, on l’a vu, sa définition de la sociologie. Il l’a d’abord appliquée dans sa compréhension de la société de cour, et c’est ce point que nous allons développer pour repérer de quelle façon on peut en tirer des enseignements dans l’analyse des marchés de capitaux.

La situation dans laquelle sont placés les hommes de cour est la suivante : l’objectif de chacun, pris isolément, est d’obtenir la faveur du roi. Pour cela, il faut d’abord, de façon générale, être bien vu à la cour. Or ce qui permet d’atteindre cet objectif n’a pas de définition objective, stable, substantielle. Dans la compétition pour être bien vu à la cour et obtenir la faveur du roi, les atouts que les hommes de cour peuvent mobiliser ne sont ni l’argent ni bien sûr sur le travail qu’ils effectuent, les nobles admis à la cour n’ayant par définition aucune activité professionnelle (19). C’est cette situation qui, littéralement, contraint les hommes de cour à se concentrer sur la façon dont ils sont vus, dont ils sont perçus : faute de pouvoir relier le fait d’être bien vu à l’accomplissement d’une tâche particulière, à la production d’un bien ou d’un service, à la détention de capital etc., le plus sûr est de s’en tenir au sens littéral d’ « être bien vu ». Leur évaluation repose entièrement sur ce qu’ils donnent à voir, sur leur comportement extérieur, et c’est donc logiquement dans ce contexte que tout ce que l’individu donne à voir va être codifié à l’extrême : les manières de table, les normes de politesse, le vêtement, l’art de la conversation, les normes de pudeur etc. Norbert Elias souligne que jamais dans l’histoire l’activité de codification et de « procéduralisation » du comportement extérieur des individus n’a été aussi intense que chez les acteurs constituant les cours des monarchies absolues entre le XVIème et le XVIIIème siècle : plus précisément, jamais ce comportement ne s’est autant modifié qu’à cette époque et dans ce contexte social bien spécifique (Elias, 1985, 1990a, 1990b). La société de cour a été le lieu où se sont inventées les formes de civilité modernes.

Cette analyse a permis à Elias de parler de la société de cour et des hommes de cour autrement que sur le registre de la condamnation morale du « règne des apparences » ou du « paraître ».

L’importance de l’apparence est expliquée par une particularité structurelle : les caractéristiques du mode d’interdépendance dans lequel s’inscrivent les individus en question.

Si nous revenons au cas de ces investisseurs dominants sur les marchés financiers que sont les gérants de fonds, nous pouvons souligner à nouveau qu’il leur est impossible de définir objectivement ou substantiellement ce qui leur permet d’atteindre leurs objectifs, et cela en raison des caractéristiques des modes d’interdépendance dans lesquels ils s’inscrivent. En ce qui concerne l’interdépendance entre les investisseurs, qui est le fonctionnement du marché dans un sens restrictif, nous avons pu évoquer la réduction d’incertitude que peut apporter le fait de partager des modes de décision d’investissement ; dans le domaine de l’interdépendance avec les clients (dont les principaux sont les investisseurs institutionnels), on peut remarquer, par analogie avec l’approche d’Elias, l’importance du travail d’exhibition de procédures. L’enjeu est de promettre du rendement, et la performance passée, si elle constitue toujours un argument, ne suffit pas : il faut montrer que l’on met en œuvre un process d’investissement qui inspire confiance (i.e. attire et retient des clients). Dans ce but, on va formaliser au maximum tout ce que le client peut voir, en tout cas tout ce qui lui est donné à voir : politique générale d’investissement, procédures de décision, de contrôle et d’évaluation etc. (20) La même tendance se manifeste dans les relations entre sociétés cotées et investisseurs : faute de pouvoir vraiment fonder objectivement ce qui peut soutenir leur cours, les groupes cotés ont tendu de plus en plus à développer la fonction de communication financière, qui vise à être bien vu par les investisseurs. Or ce qui est donné à voir aux investisseurs, ce sont d’une part les comptes publics (bilan, compte de résultat), d’autre part les stratégies, les décisions, les opérations de haut de bilan, tout ce sur quoi une société cotée est tenue de communiquer. Il est toujours tentant, bien sûr, pour ces sociétés, d’embellir les comptes, d’autocélébrer sa stratégie, de chiffrer généreusement les synergies que doit dégager une fusion ou une acquisition, c’est même relativement banal. Simplement, l’incertitude demeure, irréductiblement, quant aux conclusions que vont en tirer les investisseurs. Le plus sûr, finalement, est l’exhibition de procédures montrant qu’on est au service de ces investisseurs : c’est tout le sens du développement de la corporate governance. Les résultats, même quand ils ne sont pas « arrangés », peuvent être trompeurs et relatifs, une stratégie est toujours discutable, les avantages tirés d’une fusion dépendent de bien des impondérables, en revanche la soumission aux normes de corporate governance ne souffre d’aucune ambiguïté dans la volonté d’être bien vu des investisseurs. Un résultat peut être plus ou moins satisfaisant, une stratégie peut être plus ou moins pertinente et annonciatrice de performances financières futures, cela peut toujours se discuter. En revanche on a ou on n’a pas telle proportion d’ « administrateurs indépendants », on a ou on n’a pas un président non exécutif distinct du directeur général etc. (21)

Obtenir la faveur des clients, pour les gérants, ou celle des gérants, pour les sociétés cotées, repose sur la formalisation de ce qui est donné à voir. C’est en ce sens que l’analogie avec la société de cour nous paraît éclairante : les acteurs des marchés financiers et ceux qui en dépendent cherchent à être bien vus par le marché, comme les hommes de cour cherchaient à être bien vus par la cour et in fine par le souverain. C’est ce qui ressort des deux passages où Elias opère lui-même l’analogie :

« Ce mécanisme a une certaine ressemblance avec la Bourse. Là aussi, on assiste à la formation d’opinions changeantes sur certaines valeurs. Mais à la Bourse, il s’agit de valeurs d’entreprises dans l’opinion des bailleurs de fonds, à la cour il s’agit d’opinions sur la valeur des hommes qui en font partie. A la Bourse, les moindres fluctuations peuvent être exprimées par des chiffres, à la cour la valeur d’un homme s’exprimait en premier lieu par des nuances dans les rapports sociaux et mondains qu’il entretenait avec ses semblables. » (Elias, 1985, p. 80)

« La cour est une sorte de bourse. Comme dans chaque « bonne société » on y assiste, dans les échanges entre hommes, à la formation d’une « opinion » sur la valeur de chacun. Mais cette valeur ne se fonde pas sur la richesse du personnage ni sur ses accomplissements ou ses connaissances, elle se fonde sur la faveur que lui témoigne le roi, sur l’influence qu’il exerce sur les autres puissants, sur son poids dans le jeu des cliques et des coteries. » (Elias, 1990b, p. 237)

3. Esquisse d’un autre mode de régulation des marchés financiers

La régulation des marchés financiers repose sur la notion d’efficience informationnelle, qui repose elle-même sur l’idée que la valeur fondamentale des actifs financiers échangés et cotés sur ces marchés existe de façon objective, i.e. de façon indépendante de ce que pensent et décident les investisseurs, et que l’information permet à ces investisseurs de se « caler » sur cette valeur fondamentale de sorte que la valeur de marché de ces actifs, in fine, la reflète.

Dans les faits, la détermination de la valeur fondamentale d’un actif financier, indépendamment du fonctionnement du marché, se heurte à des obstacles théoriques et pratiques que nous considérons, à la suite d’Orléan (2006), comme insurmontables. La seule valeur des actifs financiers qui existe concrètement est leur valorisation par le marché ; elle résulte donc du fonctionnement et des caractéristiques du mode d’interdépendance dans lequel s’inscrivent les investisseurs.

Dans ces conditions, la théorie de l’efficience informationnelle répond-elle bien aux besoins des régulateurs ? Répondre à cette question requiert d’abord de préciser ce que peuvent être ces besoins. Depuis la création de la SEC qui en constitue le modèle, la « philosophie » de la régulation des marchés financiers peut se résumer de la façon suivante : il s’agit de protéger les « petits » investisseurs en faisant en sorte qu’ils disposent de toute l’information nécessaire, afin qu’ils ne soient pas trop désavantagés par rapport aux « grands ». La théorie de l’efficience informationnelle est venue donner une justification et une légitimité académique renforcée à cette « philosophie générale » qui, en fait, lui préexistait. C’est en ce sens qu’elle répond aux besoins des régulateurs. Mais cela veut dire aussi que les problèmes que nous avons soulevés sur cette théorie concernent aussi en partie cette « philosophie ». En particulier l’impossibilité de définir a priori l’information pertinente et le fait que les investisseurs qualifient nécessairement l’information en sapent évidemment les fondements.

Si, partant de là, nous essayons de définir différemment ce que peut être la fonction de la régulation des marchés financiers, nous pouvons d’abord remarquer que cette régulation a au moins une fonction de légitimation des marchés financiers vis-à-vis de la collectivité à laquelle elle se réfère. Elle s’assure que ces marchés financiers fonctionnent « correctement » au regard d’une forme de bien commun. Ce dernier est traditionnellement défini, nous l’avons vu, par l’égale diffusion de l’information pertinente supposée assurer une valorisation correcte, alignée sur une valeur fondamentale objective. Eu égard aux difficultés concrètes que pose la mise en œuvre de cette forme de bien commun, on pourrait reposer la question de ce que les marchés financiers apportent à la collectivité, à l’économie dans son ensemble.

Si l’on rapporte cette question de la fonction des marchés financiers dans l’économie à leur socio-histoire, on peut remarquer qu’ils ont été créés avant tout pour développer la liquidité : leur principe général est de rendre liquides, donc échangeables sur un marché, des biens qui ne le sont pas intrinsèquement : titres de propriétés de sociétés (actions), parts d’emprunts (obligations), devises, ensuite produits dérivés sur ces différentes classes d’actifs (Orléan, 1999). Pour les détenteurs de ces biens, c’est-à-dire, de façon générale, pour les créanciers, l’intérêt de la liquidité réside avant tout dans la limitation du risque individuel : « en rendant les titres négociables, on atténue les risques que fait courir l’investissement, puisqu’il devient alors possible de se défaire d’un titre dès qu’on le juge nécessaire. » (ibidem, p. 33). La présentation que donne par exemple Anton Brender est assez concordante : étant donné l’incertitude pesant sur l’avenir des sociétés ou des emprunteurs, sur leur capacité future respective à dégager des profits suffisants où à être capable de rembourser, la possibilité de se désengager réduit le risque (Brender, 2004, p. 12-13 et 18 notamment). Cela permet aussi de pouvoir faire face à un besoin pressant de liquidité à un moment donné.

Dans cette perspective, la légitimité des marchés financiers repose sur le fait qu’ils réduisent les risques en les rendant négociables. Grâce à eux, des titres représentant des droits à percevoir des revenus futurs incertains sont rendus échangeables. Ce que nous pouvons remarquer c’est que, en même temps que la négociabilité de ces titres (i.e. le droit de les acheter ou les vendre) est instaurée, est instaurée aussi la façon dont leurs prix vont être produits, à savoir un mode d’interdépendance liant les investisseurs entre eux. Nous souhaitons ici attirer l’attention sur le fait que, si ces deux aspects (négociabilité formelle, valorisation déterminée par un mode d’interdépendance entre les investisseurs) ont toujours été concrètement confondus dans et par le fonctionnement des marchés financiers, il est néanmoins possible de les séparer, non seulement analytiquement et théoriquement, mais aussi pratiquement.

Il peut en effet exister des biens qui soient formellement négociables mais dont le prix ne soit pas fixé par le fonctionnement d’un marché mais par une autorité extérieure. Si les actions étaient dans ce cas, par exemple, un investisseur aurait le droit d’acheter ou vendre une action, mais à la condition expresse qu’il trouve une contrepartie (respectivement vendeuse ou acheteuse) qui soit d’accord pour conclure la transaction au prix fixé par cette autorité extérieure, toute transaction à un prix différent étant illégale. La négociabilité, plutôt réductrice de risque, serait préservée ; en revanche une autre source très importante de risque, à savoir la volatilité des valorisations des actifs financiers, serait très nettement réduite.

A la différence des formes de régulation actuelles, la forme de régulation qu’assurerait l’autorité extérieure dont nous parlons ici prendrait acte du fait que l’objectivité de la valorisation est impossible, et en tirerait les conséquences. La valeur d’un actif financier ne peut être le produit d’une procédure établissant une vérité objective, mais seulement celui d’un jugement. Un jugement n’est pas la production d’une vérité scientifique, mais il n’est pas produit au hasard : il requiert, pour être équitable, une procédure qui permette d’entendre les arguments des parties intéressées et de prendre en compte un maximum d’éléments factuels et d’expertise pour aboutir à une décision prise, dans toute la mesure du possible, de façon indépendante des parties. Traiter la valorisation des actifs financiers comme l’exercice d’un jugement suppose l’établissement de procédures de ce type.

La façon dont sont valorisés les sociétés cotées et les emprunteurs publics ou privés à un impact important, parfois décisif, sur leur stratégie et sur leur capacité à se financer. Tout le fonctionnement de l’économie est affecté par la façon dont s’opère cette valorisation. Cette dernière est donc un enjeu qui concerne la collectivité dans son ensemble.

Tout comme l’établissement du degré et du type d’imposition ou la définition et la mise en œuvre des politiques publiques, la valorisation des actifs financiers est à la fois un enjeu collectif et une question qui n’a pas de réponse objective. Notre position est qu’elle doit être traitée de la même façon : comme une question politique, que des instances de nature explicitement politique doivent être amenées à trancher. En même temps, comme, concrètement, il s’agit de valoriser des sociétés ou des institutions qui ont leurs particularités, on peut imaginer que la décision politique s’exerce dans le cadre d’une procédure inspirée des procédures judiciaires : comme dans la décision politique, on tranche sur un enjeu collectif, et comme dans la décision d’un tribunal, chaque cas est spécifique et requiert d’écouter les parties intéressées et les experts les plus à même d’éclairer le cas. L’autorité dont nous parlons serait soit une instance directement élue et dédiée à ce travail de valorisation, soit une instance dont les membres seraient désignés pour une durée limitée par le Parlement. Elle prendrait des décisions de valorisation à des intervalles réguliers.

Nous n’entrerons pas plus avant dans les détails, souhaitant seulement à ce stade défendre le principe d’un tel mode de valorisation des actifs financiers. Nous remarquerons simplement, à titre d’exemple des conséquences que cela pourrait avoir, à quel point cela changerait tout le débat sur la « responsabilité sociale des entreprises » et plus spécialement sur l’ « investissement socialement responsable ». Jean-Pascal Gond (2006), qui a analysé en détail le développement de cette forme d’investissement sur les marchés financiers, a pu souligner à quel point il devait se légitimer par la performance financière, et plus généralement faire tout un travail de légitimation auprès des investisseurs les plus influents. Dans le schéma que nous avons imaginé, ce travail « politique » serait reconnu comme tel et se ferait ouvertement, sans avoir à se justifier au préalable en essayant de s’adapter aux catégories de pensées des investisseurs sur les marchés financiers. Le facteur explicatif des mouvements de cours serait la valeur fondamentale, et le serait réellement dans le sens où cette valeur serait fixée suite à une délibération contradictoire permettant d’entendre des arguments de fond, tranchée par un vote.

Conclusion

Il faut souligner que notre proposition de détermination des prix par une instance politique ne vise que les actifs financiers. Elle ne nous paraît pas justifiée, en effet, dans le cas des biens et services consommables. Dans le cas de ces derniers en effet, il peut être défendu que la loi de l’offre et de la demande garde une certaine validité, limitée et très imparfaite mais réelle. Sur les marchés financiers la valorisation résulte d’un jeu de positions acheteuses et vendeuses, et la loi de l’offre et de la demande ne joue pas (22). Cette absence de force de rappel pose un problème que l’hypothèse d’objectivité de la valeur a tenté de résoudre, sans succès puisque cette hypothèse ne tient pas.

La critique de la théorie de l’efficience, et en particulier de l’efficience informationnelle, n’a rien de nouveau. Les travaux d’André Orléan, qui représentent l’approche conventionnaliste de la finance (23) ont été largement mentionnés dans ce texte, mais le courant de recherche critique de l’efficience qui s’est le plus développé au plan international est sans nul doute la finance comportementale (24). On regroupe sous ce terme un ensemble d’approches qui, s’appuyant au départ sur des travaux de psychologie expérimentale, ont mis en question l’hypothèse de rationalité des investisseurs et se sont attachés à mettre en relation différentes formes d’inefficience des marchés et des modes de décision des investisseurs s’écartant de la rationalité telle qu’elle est comprise dans la théorie financière orthodoxe.

Sur ces approches qui se présentent comme une alternative à la théorie de l’efficience, nous ferons deux remarques :

– dans le cadre de la finance comportementale, la critique a porté sur les hypothèses mais pas sur le mode de test. Il en résulte que les défenseurs de l’efficience peuvent toujours objecter que les constats d’inefficience n’en sont pas puisqu’ils résultent d’une inadaptation de la modélisation du risque utilisée pour le test (25).

– aussi bien la finance comportementale que l’approche conventionnaliste restent sur le terrain de la discussion de la théorie, sans s’aventurer sur celui de l’utilisation de la théorie. En particulier ils ne répondent pas à la question de savoir pourquoi une théorie erronée a su se rendre indispensable aux investisseurs et aux régulateurs.

Ces deux points permettent de faire ressortir les particularités de la démarche que nous avons tenté de mettre en œuvre dans ce texte : sur le plan théorique, critiquer le mode de test, et ensuite intégrer la critique de la théorie dans une analyse des pratiques (26).

Cette démarche débouche sur deux éléments :

– une proposition théorique d’explication de l’évolution des cours à partir du mode d’interdépendance entre les investisseurs, dans lequel on peut prendre en compte en particulier leurs modes de qualification de l’information. Le mode de test correspondant à ce modèle explicatif consisterait dans l’analyse conjointe des opérations de qualification de l’information par les acteurs et des déplacements de cours : il s’agirait de chercher à identifier des relations entre ces deux phénomènes (27).

– une proposition politique de valorisation des actifs financiers par une instance indépendante élue ou désignée par des élus. Cette proposition pourrait s’inscrire dans le projet de « constitution de l’économie » présenté par Paul Jorion (2007).

REFERENCES

F. ABERGEL, La chaire de l’Ecole centrale Paris / BNP Paribas, Revue Banque, avril 2009, Supplément « Formation ».

L. BACHELIER, Théorie de la spéculation, Thèse pour le doctorat ès sciences mathématiques, 1900.

P. BERNSTEIN, Des idées capitales, PUF, 2000. (1ère publication 1992)

D. BOURGHELLE, O. BRANDOUY & A. ORLEAN, Introduction générale, in Bourghelle D., Brandouy O., Gillet R. et A. Orléan (eds), Représentations collectives et croyances sur les marchés financiers, Economica, 2005.

A. BRENDER, La France face aux marchés financiers, La Découverte, 2004.

E. BRIAN & C. WALTER dir., Critique de la valeur fondamentale, Springer, 2007.

M. BRIERE, Formation des taux d’intérêt, Economica, 2005.

I. CHAMBOST, Contribution à l’analyse de la formation du jugement des analystes financiers sell-side, thèse de doctorat en sciences de gestion, CNAM, 2007.

J-O. CHARRON, L’idéologie de la transparence dans l’audit : une approche de sa dimension médiatique, Comptabilité Contrôle Audit, Juin 2004.

J-O. CHARRON, A la recherche de l’opinion du marché, présentation au Congrès annuel SASE, Copenhague, 29/06/2007.

N. ELIAS, La société de cour, Flammarion, 1985 (1ère publication 1936)

N. ELIAS, La civilisation des mœurs, Pocket, 1990 (1ère publication 1939, 1ère publication en français 1973) (en référence : Elias, 1990a).

N. ELIAS, La dynamique de l’Occident, Pocket, 1990 (1ère publication 1939, 1ère publication en français 1975) (en référence : Elias, 1990b).

N. ELIAS, Qu’est-ce que la sociologie ?, Pocket, 1993 (1ère publication1970, 1ère publication en français 1991)

E. FAMA, The behavior of stock market prices, Journal of Business, January 1965.

E. FAMA, Efficient capital markets : a review of theory and empirical work, Journal of Finance, May 1970.

J-P. GOND, Construire la relation (positive) entre performance sociétale et financière sur le marché de l’ISR : de la performation à l’autoréalisation, Revue d’économie financière, septembre 2006.

P. HYME, Des différentes acceptions de la « théorie des marchés efficients », Economie appliquée, décembre 2004, p. 43-57.

P. JORION, L’économie a besoin d’une authentique constitution, Le Monde, 4 septembre 2007.

T. KLEINER, La consécration des gestionnaires d’actifs sur la place de Paris, Actes de la Recherche en Sciences Sociales, mars 2003.

D. MACKENZIE, An engine, not a camera : how financial models shape markets, The MIT Press, 2006.

B. MANDELBROT, Forecasts of future prices, unbiased markets, and martingale models, Journal of Business, Special supplement, January 1966, p. 242-255.

M. MANGOT, Psychologie de l’investisseur et des marchés financiers, Dunod, 2005.

S. MONTAGNE, Les fonds de pension, Odile Jacob, 2006.

J. MUTH, Rational expectations and the theory of prince movements, Econometrica, July 1961, p. 315-335.

A. ORLEAN, Le pouvoir de la finance, Odile Jacob, 1999.

A. ORLEAN, Réflexions sur l’hypothèse d’objectivité de la valeur fondamentale dans la théorie financière moderne, in Bourghelle D., Brandouy O., Gillet R. et A. Orléan (eds), Représentations collectives et croyances sur les marchés financiers, Economica, 2005.

A. ORLEAN, Knowledge in finance : objective value versus convention, in R. Arena & A. Festré ed., Knowledge, beliefs and economics, Edward Elgar, 2006.

A. ORLEAN, La notion de valeur fondamentale est-elle indispensable à la théorie financière ?, Regards croisés sur l’économie : comprendre la finance, mars 2008, p. 120-128.

P-C. PRADIER, La notion de risque en économie, La Découverte, 2006.

H. RAINELLI-LE MONTAGNER, Nature et fonctions de la théorie financière, PUF, 2003.

P. SAMUELSON, Proof that properly anticipated prices fluctuate randomly, Industrial Management Review, Spring 1965, p. 41-49.

R. SHILLER, Do stock prices move too much to be justified by subsequent movements in dividends ?, American Economic Review, 71 (3), 1981, p. 421-436.

A. SHLEIFER, Inefficient markets, Oxford University Press, 2000.

H. SIMON, From substantive to procedural rationality, in S. Latsis ed., Method and appraisal in economics, Cambridge University Press, 1976.

G. SOROS, La vérité sur la crise financière, Denoël, 2008. (Titre original : The new paradigm for financial markets, PublicAffairs, 2008)

Y. TADJEDDINE, Les gérants d’actifs en action: l’importance des constructions sociales dans la decision financière, in F. Eymard-Duvernay dir., L’économie des conventions, méthodes et résultats, tome 2, La Découverte, 2006.

C. WALTER, Une histoire du concept d’efficience sur les marchés financiers, Annales HSS, juillet-août 1996.

—————
Notes :

1 Nous renvoyons ici aux notions de transparence procédurale et de transparence substantielle énoncées dans l’article cité.

2 Pour une présentation et une discussion des différentes acceptions de l’hypothèse de marchés efficients, voir aussi Hyme (2004) et Orléan (2008).

3 La théorie de l’efficience informationnelle justifie aussi toute la profession d’analyste financier comme estimateur du fondamental qui aide les investisseurs et facilite l’alignement du cours sur le fondamental. En même temps le rôle réel des acteurs peut être différent, ainsi les analystes sell-side sont plutôt des « producteurs de liquidité », dans les faits. Sur le rôle réel des analystes financiers, on peut se référer notamment à Chambost (2007). Notre travail doctoral en cours devrait aussi apporter une contribution sur ce point ; cf. déjà Charron (2007).

4 Walter (1996) permet de voir plus précisément ce qui est en jeu. Fama (1970, p. 384) parle des différentes façons d’estimer la distribution des rendements (« many possible summary measures of distribution of returns »). Or cette idée qu’il faut modéliser mathématiquement la façon dont se distribuent les changements de cours (que les rendements ne font qu’exprimer en pourcentage) remonte en réalité à Bachelier.

5 Là se marque, selon les termes de Walter (1996, p. 879), le passage d’une approche directionnelle à une approche distributionnelle.

6 Souligné par nous.

7 Le raisonnement probabiliste s’effectue dans un cadre qui est celui de la « décision contre la nature » (Pradier, 2006, p. 61).

8 L’importance de l’argument de l’arbitrage dans la construction de la théorie de l’efficience est soulignée par de nombreux auteurs, par exemple Shleifer (2000).

9 André Orléan fait découler l’ « hypothèse d’objectivité de la valeur » de l’ « hypothèse d’objectivité du futur », ce qui est logiquement incontestable. De notre côté nous avons essayé de montrer (cf supra.) que l’hypothèse d’objectivité de la valeur a été adoptée pour faire de la valeur fondamentale le facteur explicatif d’une évolution des cours pensée comme objective : c’est l’ « hypothèse d’objectivité de l’évolution des cours » qui a nécessité l’adoption de l’hypothèse d’objectivité de la valeur, sans que soit réellement pensée ou réfléchie l’hypothèse d’objectivité du futur qui en est pourtant, comme le dit justement Orléan, le présupposé logique.

10 Sur cette discussion, voir en particulier Brian et Walter dir. (2007)

11 Remarquons au passage que cet environnement saturé de flux d’informations n’existait pas au temps où Fama écrivait ses articles fondateurs.

12 Dans le cadre de l’approche distributionnelle dominante, cet objectif de rendement est défini relativement à un benchmark. La centralité du rendement comme enjeu se voit par exemple dans les analyses de Gond (2006) qui montre notamment comment la stratégie de légitimation de l’investissement socialement responsable passe par la démonstration de sa performance financière.

13 La désignation des évolutions de cours comme déplacements de cours nous paraît appropriée à cette approche. Elle connote en effet ce phénomène comme résultant de l’intervention d’acteurs ; elle s’oppose à des termes plus neutres comme « évolution » ou « changement » ainsi qu’à la notion de rendement qui, exprimant le phénomène en pourcentage, évoque plutôt un chiffre observé sur un écran et facilite les analogies avec la physique ou la biologie.

14 Le terme est utilisé en français, et il nous paraît dans cette langue moins ambigu que « courtier », mot qui désigne des activités différentes.

15 L’interdépendance avec les analystes financiers nous paraît avoir moins de conséquences. Les investisseurs, dans la mesure où ils suivent les recommandations des analystes ou tiennent compte de leur production ou plus largement de leur réflexion, en sont dépendants, et les analystes, de leur côté, sont dépendants des investisseurs à la fois dans la mesure où ce sont leurs clients (de façon indirecte quand la recherche n’est pas facturée en tant que telle, de façon directe quand elle l’est), des clients qu’ils ont besoin de garder et d’attirer, et dans la mesure où ils tiennent compte des évolutions des cours (qui résultent des décisions des investisseurs) pour former leur propre jugement. Ce dernier point a été solidement argumenté et documenté par Chambost (2007).

16 Nous renvoyons ici aux travaux de Sabine Montagne (2006), qui a exposé, sur la base d’une analyse du développement des trusts dans la finance, comment cette relation a évolué dans le sens de l’imposition des normes des gérants, aboutissant à ce qu’elle a appelé un « pilotage par l’aval ».

17 Nous avons pu relever une illustration saisissante de la première approche dans un article présentant les activités d’une chaire de recherche en finance quantitative. Cet article explique par exemple que l’une des spécificités de la chaire consiste à retenir « la caractérisation des marchés financiers sous la forme d’un système multi-agents complexe » et que cette spécificité est liée à une visée explicative : elle « s’attache à la compréhension et à la simulation des mécanismes qui provoquent » les évolutions des prix sur les marchés financiers (Abergel, 2009, p. 25). Il semblerait donc que l’interdépendance entre acteurs est comprise comme expliquant l’évolution des cours, comme dans notre approche. Or il n’en est rien, et on le comprend dès que cet axe de recherche est décrit de façon plus détaillée : « Une des directions de recherche principales de la chaire est de faire le lien entre la description statistique des phénomènes, et une description « physique » de ces mêmes phénomènes. C’est là que la notion d’ « agents », principe à la base de tout système complexe, intervient de manière naturelle : les agents (intervenants) des marchés financiers sont les particules de la physique statistique. Et si la complexité psychologique d’un agent est, assurément, bien supérieure à celle d’une molécule d’oxygène ou d’une particule de pollen, de nombreux résultats indiquent qu’une vision macroscopique de la multiplicité de tous les agents est possible, et qu’elle passe par une utilisation, amélioration ou création d’outils touchant à la physique statistique et à la théorie des processus stochastiques. » (Abergel, 2009, p. 26) Il apparaît bien ici que, même lorsque ce type de recherche prétend prendre en compte l’interdépendance entre les acteurs, cette prise en compte est en faite traduite pour fonder une forme de modélisation du risque, encore une fois basée sur l’assimilation de l’évolution des cours à un phénomène relevant des sciences de la nature.

18 C’est un point que nous avons pu observer sur le terrain de notre thèse en cours.

19 L’argent et la réussite professionnelle sont les critères de jugement de la bourgeoisie naissante, or une des fonctions des cours des monarchies absolues a précisément été d’isoler la noblesse de la bourgeoisie. Elias développe aussi l’idée que, face au déclin économique et politique de la noblesse aux XVIème et XVIIème siècles, le développement des cours royales était un moyen pour le souverain de redonner un espace à la noblesse pour qu’elle puisse encore servir de contrepoids à la bourgeoisie, de façon à ce que le souverain puisse éventuellement se poser comme arbitre entre les deux.

20 Sabine Montagne (2006) lie cette évolution à la socio-histoire de la gestion d’actifs aux Etats-Unis. On peut ajouter que, si elle se comprend sociologiquement, elle peut aussi se comprendre logiquement : c’est parce que le substantiel est impossible que le procédural ne peut que se développer.

21 Le cas d’Enron avait ceci de remarquable qu’il cumulait un respect formel poussé des normes comptables et de gouvernance et une manipulation des résultats poussée à l’extrême. Pour atteindre leur objectif, qui était la maximisation du cours de Bourse, les dirigeants mobilisaient à la fois l’exhibition de procédures et la falsification des chiffres. C’est la deuxième approche qui les a perdus, et on peut supposer qu’elle est sensiblement plus risquée que la première. Depuis, le développement de nouvelles réglementations dont la loi Sarbanes-Oxley est l’exemple le plus connu a conforté et renforcé l’activité consistant à faire voir que l’on applique des procédures. Le développement des fonctions de déontologie va dans le même sens.

22 Ce qui fait en particulier que le raisonnement de Hayek sur le prix de marché qui transmet de façon synthétique toute l’information, de façon bien plus efficace que n’importe quelle autorité centralisée, ne peut fonctionner sur les marchés financiers. Le prix n’y est pas en effet signal ou reflet de quelque chose : il n’est que la résultante de conjectures interdépendantes.

23 Aussi illustrée par Marie Brière (2005) et Yamina Tadjeddine (2006), notamment.

24 Voir en particulier Shleifer (2000) et Mangot (2005), pour des présentations d’ensemble de courant.

25 « The dependence of most tests of market efficiency on a model of risk and expected return is Fama’s (1970) deepest insight, which has pervaded the debates in empirical finance ever since. Whenever researchers have found a money-making opportunity resulting from trading on stale information, critics have been quick to suggest a model of risk – convincing or otherwise – that would reduce these profits to a fair compensation for risk-taking.” (Shleifer, 2000, p. 6)

26 Nous sommes largement redevables sur ce point, à Marie-France Khalidi qui a très pertinemment critiqué une première version de ce papier présentée au séminaire d’Isabelle Chambost au Cnam le 18 mars 2009.

27 La notion de réflexivité telle qu’elle a été développée par George Soros (2008) peut être liée à cette proposition. Soros présente comme élément central de son « cadre conceptuel » l’idée que « les phénomènes sociaux sont structurellement différents des phénomènes naturels » étant donné que « la chaîne de causalité ne comprend pas seulement les faits mais aussi les opinions des acteurs et les interactions entre ces opinions » (p. 35)

Partager :

79 réflexions sur « Une proposition pour repenser la « constitution » des marchés financiers, par Jacques-Olivier Charron »

  1.  » Sauf augmentation de capital ou rachat de ses propres actions, la quantité d’actions d’une société ne varie pas, la variation de son prix n’impacte pas cette quantité. »
    Sauf si on meurt, on vit eternellement!
    Les societes peuvent et effectivement ajustent leur emission/rachat d’actions en fonction de leur besoin ET du prix qu’ils pourraient obtenir. Par contre il existe un probleme de gouvernance. Clairement une enorme quantite de firmes agissent d’avantage pour leurs dirigeants que pour leurs actionnaires. Normalement les actionnaires ne devraient pas investir dans ces compagnies mais 1e probleme de gouvernance se retrouve dans les fonds d’investissements comme vous et d’autres l’ont mentionnes, 1e probleme reste entier. ll faut changer les regles de gouvernance mais comme vous le diteson se heurte a une nomenklatura qui neveut rien entendre, Sarkozy le premier!

  2. @jocharron

    « le rêve technocratique, nous sommes aujourd’hui en plein dedans, c’est la réalité d’aujourd’hui. »

    Eh oui ! Inutile donc d’en instaurer un autre.

    « L’accélération exponentielle de l’innovation technologique », selon une expression de B. Stiegler a généré aussi la « technocratie privée » que constitue la finance d’aujourd’hui.

    J’ignore si vraiment nos démocraties sont plus démocrates et moins fausse que notre dieu « concurrence »serait non faussée, j’en doute. Loin de moi le goût pour une quelconque dictature ou n’importequel autoritarisme.

    La liberté ne se donne pas, elle se prend….. à tout le moins les libertés seront prises par la population lasse du consumérisme avant que la technocratie financière se saborde.

    J’espère que le « ras le bol », l’écoeurement dont parlait P. Jorion, permettra de petits réveils, de petits sursauts, individuels, des luttes (tiens, les agriculteurs font aujourd’hui l’assaut des plateformes de la grande distribution) plus mutuelles…. J’espère que le tissus social s’imbibera petit à petit par osmose et capillarité d’un venin destiné à paralyser les muscles de cette machine technocratique.

    Les muscles sont ceux de la marchandisation du monde.

    Mettre en avant tout ce qui offre une alternative joyeuse aux pseudo-valeurs des « produits de consommation ».

    En ce qui concerne le fonctionnement des bourses et du marché, je n’y connais pas grand chose mais plus de lenteur, plus d’étapes, quelques interdictions strictes (VAD, accès aux marchès des matières premières réservé aux acteurs ayant besoin de ces matières premières,dérivés de couverture ibidem….) devraient bien casser « l’innovation technologique » en ce domaine, et la domination de l’économie par la finance donc.

    Plus de local, plus de réparable ou durable, …. des fiscalités l’encourageant…..

    bribes,bribes……

  3. @Jocharron
    merci pour votre réponse claire et limpide.
    Le probleme semble etre la taille des interventions des intervenants par rapport a celle du marché.Commencer par règlementer ces intervention plus sérieusement, l’amf par exemple le fait déja mais pas suffisemment apparemment.
    C’est le mot politique et expert qui peut faire bondir parler d’un tiers aurait déja été plus neutre.
    Ou alors il faut préciser de quel genre de politique il s’agit. Le caractère apolitique d’une organisation qui évalue les valeurs du marché ou alors regroupant toutes les tendances pour éviter qu’un élu d’extreme gauche ai a évaluer la valeur d’actifs d’une entreprise de fabrique de pistolets paralysants semble nécessaire.
    Maintenant qu’un groupe d’experts débatte avec des politiques pour mettre ensemble au point un programme d’évaluation des valeurs boursières , puis que ce programme soit appliqué sans aucune intervention extérieure pose le problème de l’objectivité
    des valeurs qu’on y soumettrait.On est d’accord cette évalulation non objective aurais au moins le mérite de réduire fortement les velléités spéculatives.Bravo pour votre démonstration.
    Maintenant le probleme c’est que meme si les groupes d’interrets divergent dans leurs investissements spéculatifs ils convergent dans leur interet a pouvoir spéculer. POur les gains de la spéculation comme pour les comissions sur les produits qu’ils proposent.
    Et les interrets fianciers sont tels qu’il est difficile voir impossible a des politiques de s’y opposer.
    La spéculation fait partie des attraits psychologiques de la bourse a la base le risque de gains élevé psychologiquement
    compense le risque de perte. La spéculation ne serait elle pas induite directement par nos modes de consommation?
    Pourquoi prendre le risque d’une perte élevée si nos besoins réels sont satisfaits. Un des moteurs de la société de consommation c’est de faire croire a tout le monde qu’il leur manque quelque chose pour pouvoir leur vendre.L’attrait de la spéculation n’est elle pas une tentative désespérée d’obtenir ce que la société ne veut pas donner? Les fonds d’investisements ne feraient alors que répondre a cette demande d’espoir…

  4. En tout cas évaluer la valeur d’un bien, c’est avant tout connaitre sont pris de revient. Par les marché action c’est une chose difficile car le prix de m’action est plutot fonction de l’interet qu’il rapporte et de la plus value qu’il peut générer (difference entre prix d’achat et prix de vente). Dans le cas des actions, l’information ne peut donc que n’être spéculative, dans le sens ou elle ne prends en compte que la rentabilité de l’entreprise.

    Les vrais informations, celle necessaire au investisseur et pourtant toute autres, et cette information est souvent inccacible aux grand nombres parce que bien caché. Voici l’énumération des informations qui me semble vraiment utile aux investisseurs :

    1) la repartitions des actions, ou qui est pocesseur réelle des actions. Sachant que les banques diluent tous cela dans les sicav et assurance vie et que les hedges found en fond de même. Il faudrait savoir exactement le montant exact des positions détenu par les particulier et par les financiers

    2) information sur les ordeurs books, fichier permmettant de savoir en temps réel le nombres d’action a l’achat et a la vente ainsi que les prix, infos qui ne sont accessible qu’aux courtier et aux place financière. Et je suppose qu’en se momment il n’hésite pas a jeter un oeil dans ces fichiers vue l’équilibre magique du marché actuellement.

    3) connaitre avec précision les comptes des entreprise, chose pour ainsi dire, impossible. Surtout avec les stock option, qui peuvent être exercé a tout momment, se qui peut créer des passage a vide dans la valorisations de la trésorerie des entreprise. Surtout lorsque ces stock option sont racheté indirectement par la trésorie de l’entreprise via des paradis off shore.

    4) la désinformation ou la propagande médiatiques ne laissant flitrer que les informations positive et mettant de coté les informations qui auraient des impact négatifs.

    Les marchés financier ressemble plus a une bergerie garder par les loups, les moutons étant ceux qui se feront tondre.

  5. @jocharron
    Je n’entrerai évidemment pas dans le débat portant sur la détermination du « juste prix » des actions qui a fait couler breaucoup d’encre, notamment de ma plume il y a une trentaine d’années. J’observais alors que – du point de vue du praticien que j’étais – le principe de l’efficience du marché des actions ne cessait curieusement de renaître de tous les démentis que la simple observation des faits ne cessaient de lui apporter…
    Je me contenterai d’une brève remarque concernant l’idée de confier à une autorité élue ou à des experts désignés par des élus (si j’ai bien compris) le soins de juger du juste prix des actions (ou de tout autre « produit financier »). Je pense qu’il serait difficile de la mettre en pratique, sans pour autant en contester la finalité.
    La solution ne serait-elle pas de confier à l’AMF (Autorité des Marchés Financiers) le soin de réguler les Agences de Notation dont on connaît les errements et leurs conséquences pour le moins fâcheuses, mais dont la vocation pourrait être élargie à l’appréciation du cours des actions.
    Cette régulation pourrait prendre la forme suivante:
    1°) Pour couper le lien « incestueux » entre Sociétés et Agences, absence de rémunérartion des Agences par lesdites Sociétés. Cette mesure tombe sous le sens …
    2°) Rémunération des Agences par l’AMF à partir d’une taxe (exrtêmement faible ) appliquée à toutes les opérations de marché. Cette rémunération serait proportionnelle au temps passé en expertise par les dites Agences.
    3°) Tous les cinq ans, par exemple, examen « ex post » de la qualité des prestations des Agences par l’AMF avec « notation » des dites Agences de Notation (test de crédibilité).
    4°) Nombre limité d’Agences (trois ou quatre, pas plus, avec élimination des « officines  » incompétentes au vu de leurs diagnostic en fonction de l’évolution constatée du marché sur la période de cinq ans). Une saine concurrence ferait alors le tri entre les bonnes et les mauvaises Agences et permettrait de susciter de nouvelles candidatures.

    C’est ainsi que l’on pourrait tendre vers l’efficience du marché des actions, qui ne sera jamais accessible compte-tenu de l’incertitude de l’avenir et de l’impossibilité de chiffrer avec exactitude la valeur d’une action (ou de n’importe que produit financier).
    Chacun sait en effet que la valeur d’une action n’est pas une caractéristique « sui generis » de cette action, mais dépend uniquement de l’idée que l’on s’en fait (d’où l’heureuse diversité des jugements sans laquelle il n’y aurait pas de marché …).
    De la sorte, les Agences de Notation pourraient véritablement jouer le rôle « d’organe de régulation » du système très complexe (au sens de « l’Analyse des Systèmes ») que représentent les marchés financiers, lesquels se caractérisent par la présence de « boucles de rétroaction » positives et négatives (pour parler savamment …).
    Bref, il s’agit là d’une simple idée qui pourrait s’appliquer surtout au marché secondaire des actions, qui mériterait sans doute d’être creusée, et que je me permets de soumettre aux rédacteurs dévoués et compétents de la « Constitution pour l’Economie ».
    Je remercie Jacques-Olivier Charron pour sa contribution qui doit faire avancer le débat, notamment sur le rôle des Agences de Notati, qui pourraient devenir de véritables « Centres d’Analyse Financière » indépendants en se voyant élargir leur domaine d’intervention plus classique (notation des dettes).

  6. Comment financer vos projets d’usine a gaz de controle de la valeur des actions?
    Les états s’amputeraient des revenus induits par la finance pour financer a plein temps des expert chargés de controler des actions qui par la perte de leur interret spéculatif ne devraient plus intéreser grand monde.
    Je sens quelque part une incohérence.En fait si l’info est parfaitement distribuée , pour ne léser personne autant laisser a cette organisation le soin d’investir dans toutes les entreprises puisque l’acheteur deviens passif sur l’évaluation des valeurs
    pourquoi devrait t’il l’etre sur son choix d’investir?
    C’est du collectivisme financier que le communisme n’aurait pas renié.
    Et si personne ne comprend ici que les élections sont généralement aussi le fruit d’une spéculation sur la valeur politiques des candidats qui fausse les résultats et nous conduit a la dévalorisation des élus c’est a désespérer.

  7. erratum lire  » ne devrait il pas l’etre sur son choix d’investir »
    erratum2 survalorisation politique des élus et dévolarisation de la politique. (car le choix se résume souvent a un pari sur « le moins pire » qui a une chance d’etre élu)

  8. Très heureux d’apprendre que la théorie de l’autorégulation des marchés n’était pas une invention des médias mais une réalité bien concrète que vous avez résumé comme suit :
    « On peut résumer le raisonnement de Fama sur le lien entre cours et valeur fondamentale en trois propositions :
    (1) la valeur fondamentale d’un actif financier existe ex ante.
    (2) au moins une partie des intervenants sur le marché est capable de l’estimer.
    (3) ces intervenants [en particulier les « astute traders »] utilisent cette connaissance de la façon suivante : quand ils voient que le cours d’un titre s’écarte de sa valeur fondamentale, ils anticipent son retour à cette valeur et prennent des positions sur le marché en fonction de cette anticipation, ce qui ramène effectivement le cours à sa valeur fondamentale.
     »
    Etant « démontré » que cette valeur fondamentale est « objective », plus personne ne peut douter de l’efficience des traders, même s’il y a tout lieu de s’étonner qu’ils soient à la fois si perspicaces pour voir qu’un titre s’écarte de sa valeur fondamental, et si lourds financièrement pour que leurs positions puissent infléchir un cours. Mais si je posais la question à monsieur Fama, nul doute qu’il trouverait à cette curieuse coïncidence une explication scientifique.

    Pour être sérieux, la solution politique est évidemment la seule qui vaille car elle présente les deux caractéristiques requises : extériorité à et autorité sur la chose que l’on veut réguler. L’autorégulation est une hérésie scandaleuse, elle n’existe pas plus dans la nature que dans le monde des ingénieurs. Les espèces vivantes sont programmées pour coloniser le plus grand territoire possible et se reproduire sans limite. Quant aux machine régulées, elles le sont pas des dispositifs qui leur sont forcément extérieurs. L’autorégulation des marchés revient à dire des acteurs qu’ils se comportent comme ces automates vivants que sont les fourmis. Pas très réaliste. D’autant plus qu’on n’a jamais vu de fourmilière s’autodétruire.

    Pour vraiment « réguler » les marchés, il faut donc leur imposer, de l’extérieur, des limites et des règles de fonctionnement. Reste à déterminer lesquelles. Fixer les prix par un comité d’experts « indépendants » ne fonctionnera jamais : ils seront soumis à trop de pressions et ne resteront pas indépendants longtemps. Ils subiront le même sort que les scientifiques honnêtes qui travaillent sur les OGM : les incorruptibles seront virés et leurs avis étouffés.

    Il faut en revenir au problème de fond, à savoir : 1) personne ne sait « réguler » un marché; 2) le besoin de régulation provient des tensions entre l’offre et la demande; 3) la contradiction entre 1 et 2 vient du fait que personne ne se donne la peine d’analyser les besoins des acteurs. Il y a, dans l’application de la loi de l’offre et de la demande, une foule de présupposés que personne ne s’est jamais donné la peine de justifier. On considère simplement que, à un instant T, tous les acheteurs et tous les vendeurs doivent pouvoir échanger le volume qu’ils veulent au « juste » prix. Cette loi s’appliquant à tous et à tout instant, elle constitue un véritable automatisme. Que les marchés se retrouvent tôt ou tard dans un cul de sac ne doit pas étonner : cet automatisme en est la seule cause. Si un automobiliste choisissait sa route de la sorte, il se retrouverait tôt ou tard face à la mer car son mouvement serait brownien.

    Il s’agit donc de contester l’automatisme et de l’affiner. En tant que système de valorisation, la loi de l’offre et de la demande n’est pas arbitraire, c’est son application automatique qui l’est : le principe de régulation exige que les échanges effectifs obéissent à un système plus sophistiqué. C’est le point crucial soulevé dans le texte : « Nous souhaitons ici attirer l’attention sur le fait que, si ces deux aspects (négociabilité formelle, valorisation déterminée par un mode d’interdépendance entre les investisseurs) ont toujours été concrètement confondus dans et par le fonctionnement des marchés financiers, il est néanmoins possible de les séparer, non seulement analytiquement et théoriquement, mais aussi pratiquement. »

    A mon humble avis, il faudrait :
    1) Réguler les marchés en volume, qu’ils ne puissent ni croître ni décroître trop rapidement par rapport à d’autres paramètres de la finance et de l’économie réelle;
    2) Trouver des règles pour quantifier/valoriser les échanges lorsque celles de la régulation s’opposent ponctuellement à l’application de la loi de l’offre et de la demande.
    3) Mettre de la « viscosité » dans la liquidité pour rendre les investisseurs plus responsables.

  9. A propos du mouvement brownien et de la spéculation. Il y a de cela quelques années, je m’étais amusé à tracer la trajectoire d’un point en fonction des décimales du nombre Pi. Ayant poussé l’expérience jusqu’à un milliard de décimales, j’ai pu observer tout ce que l’on raconte au sujet du mouvement brownien, mais aussi un petit phénomène dont on parle moins. A savoir qu’il oscille entre deux tendances, l’une qui le fait tourner en rond ou rebrousser chemin sans s’écarter beaucoup d’une position donnée, l’autre qui l’en fait s’enfuir très loin. On se dit alors que, s’il privilégie une direction, par exemple le nord, c’est que les décimales qui le font choisir le nord sont momentanément et nettement plus nombreuses que celles qui le feraient aller au sud ou dans une autre direction. Ce serait donc une illustration du fait que le hasard répartit mal les choses. Je n’y crois pas trop car il faudrait que 2 ou 3 décimales, toujours les mêmes, soient globalement (mais momentanément) plus fréquentes que toutes les autres.

    L’explication inverse marche beaucoup mieux, à savoir : le nord est privilégié quand les décimales pour l’est et l’ouest s’équilibrent parfaitement en nombre, de sorte qu’une très légère supériorité de celles du nord sur celles du sud suffit à le voir s’éloigner rapidement vers le nord.

    Appliqué aux marchés, cela veut dire que l’intervention de quelques spéculateurs suffit peut-être à orienter durablement les cours à la baisse ou à la hausse, la masse des autres échanges ayant des effets qui s’annulent mutuellement.

  10. @Crapaud rouge
    Quelques remarques de fond en nous limitant au marché des actions :
    1°) Le concept de « valeur fondamentale » – en tant que caractéristique sui generis d’une entreprise – est dénué de signification.
    2°) Le marché des actions est intrinsèquement inefficient en raison de l’incertitude de l’avenir, contrairement à tout ce qui a été enseigné durant des dizaines d’années dans les meilleures écoles de commerce …
    3°) L’intérêt de tous les intervenants (épargants et investisseurs professionnels) doit être de rendre le marché des actions moins inefficient ./ ….
    Reste à savoir comment, et je pense que tout le monde devrait pouvoir se mettre d’accord sur cet objectif, mais encore faudrait-il s’entendre sur le sens des mots.
    Pour conclure, une petite devinette:
    Savez-vous qui a écrit :
    « Le marché financier est d’autant plus efficient que les cours des valeurs intègrent rapidement les informations qui arrivent continuellement sur le marché. En conséquence, sur un tel marché, ces cours représentent à tout moment une bonne estimation de la valeur de la société »?
    En tout cas, vous aurez sûrement deviné que je ne suis pas d’accord.
    Bien cordialement.
    Le Naïf (pas si naïf que ça …)
    PS : D’accord pour la « viscosité », au demeurant préconisée par Maurice Allais.

  11. @Le naïf: n’importe quel théoricien ou adepte de l’autorégulation aurait pu dire votre citation : « Le marché financier est d’autant plus efficient que les cours des valeurs intègrent rapidement les informations qui arrivent continuellement sur le marché. » Il est remarquable que, ainsi isolée, ce genre d’assertion paraît tout à fait réaliste : on peut croire, en effet, que les cours répondent aux informations qui surgissent. Dès qu’on creuse un tout petit peu, ça ne tient pas la route.

  12. Un peut d’humour : la théorie de l’autorégulation des marchés, ça ressemble beaucoup à la réponse d’Andersen Consulting à la brûlante question de savoir « Why did the chicken cross the road? » : « Deregulation of the chicken’s side of the road was threatening its dominant market position. The chicken was faced with significant challenges to create and develop the competencies required for the newly competitive market. Andersen Consulting ,in a partnering relationship with the client, helped the chicken by rethinking its physical distribution strategy and implementation processes. Using the Poultry Integration Model (PIM), Andersen helped the chicken use its skills, methodologies, knowledge, capital and experiences to align the chicken’s people, processes and technology in support of its overall strategy within a Program Management framework. Andersen Consulting convened a diverse cross-spectrum of road analysts and best chickens along with Anderson consultants with deep skills in the transportation industry to engage in a two-day itinerary of meetings in order to leverage their personal knowledge capital, both tacit and explicit, and to enable them to synergize with each other in order to achieve the implicit goals of delivering and successfully architecting and implementing an enterprise-wide value framework across the continuum of poultry cross-median processes. The meeting was held in a park-like setting enabling and creating an impactful environment which was strategically based, industry-focused, and built upon a consistent, clear, and unified market message and aligned with the chicken’s mission, vision, and core values. This was conducive towards the creation of a total business integration solution. Andersen Consulting helped the chicken change to become more successful.
    Pour avoir d’autres explications plus sérieuses, lire ici.

  13. @ Crapaud rouge
    En réponse à votre commentaire de 17:07, je me permets de préciser mon point de vue : Il est de fait que les cours de bourse réagissent avec une extrême sensibilté au flux d’informations arrivant continuellement sur le marché, mais le « système boursier » ajoute au « risque d’entreprise » supporté par l’entrepreneur un « risque de marché »(dans un sens différent de celui de la Théorie du Portefeuille) qui n’est autre qu’un risque de salle jeu, ce qu’ignore évidemment l’épargnant « lambda » (rappelez-vous la veuve de Carpentras évoquée par je ne sais plus quel ministre).
    Pour plus de précisions, je me permets de vous renvoyer à un long article publié dans la Revue Banque de septembre et octobre 1981, mais qui n’a rien perdu de son actualité …
    Comme le disait le regretté Jean Ullmo, « sans théorie, on ne peut ni comprendre, ni se comprendre », mais encore faudrait-il que la théorie résulte du seul examen des faits et qu’elle ne soit pas falsifiable (au sens de Karl Popper). En écrivant cela, je ne vise évidemment personne …
    Pour demeurer constructif, tout notre propos doit être d’examiner les voies et moyens permettant de réduire le risque de marché (d’où ma précédente suggestion très concrète de mettre les Agences de Notation sous surveillance très stricte de l’AMF).
    PS : J’apprécie votre humour. Continuez à nous régaler!

  14. NB : Je précise que le titre de l’article précédemment mentionné était : « Du bon usage de l’analyse financière, ou la théorie du portefeuille en question ».

  15. Je ne répondrai pas à tout le monde mais je souhaitais faire une sorte de (dernière !) « réaction générale ».

    Je pars d’une réaction à Alfeel qui dit que les actions, « par la perte de leur intérêt spéculatif ne devraient plus intéresser grand monde ». Je pense exactement le contraire : si les cours des actions n’évoluaient qu’en fonction de paramètres économiques réels, appréciés par des experts, cela répondrait aux besoins de la plupart des investisseurs et surtout cela en attirerait de nouveaux, aujourd’hui plutôt rebutés précisément par cet aspect purement spéculatif. Evidemment cela ne veut pas dire que cet investissement serait sans risque, simplement le risque, toujours très significatif, serait de nature différente, avant tout parce que ses déterminants, i.e. les critères de valorisation, seraient débattus et établis publiquement et dotés d’une certaine stabilité. Dans ces conditions le risque refléterait la capacité des sociétés à remplir ces critères, et donc, même imparfaitement, la compétence de leur management et de l’organisation dans son ensemble. On n’aurait plus, par exemple, ces dirigeants qui se rengorgent d’avoir « créé de la valeur » (et en tirent argument pour justifier leur rémunération), simplement parce qu’ils se trouvaient en poste au moment où leur action a été prise dans un mouvement haussier dans lequel ils ne sont pour rien ou à peu près.

    Maintenant revenons à cette histoire de « appréciés par des experts » qui a fait réagir Le Naïf, Crapaud Rouge, Alfeel et d’autres.
    Pour être un peu plus dans le concret, on peut partir du fait qu’une société cotée est toujours valorisée de deux façons différentes : dans ses comptes (valeur comptable) et sur le marché (capitalisation boursière). Il y a d’ailleurs toute une littérature sur le rapport entre les deux (le ratio « book-to-market »). Dans la recherche en gestion il y a une « recherche comptable » distincte de la « recherche en finance ». Le problème est que la première s’est en grande partie mise à la remorque de la seconde, en acceptant l’efficience au moins sous la forme de l’idée que c’est le marché qui dit la vérité de la valeur. Les recherches sur la manipulation des comptes ont ainsi pu prendre comme étalon de valeur non manipulée le cours de Bourse (Si ! Vous avez bien lu !).
    Loin de n’être qu’un débat académique, cette idée a eu une traduction concrète avec la mise en œuvre dans l’Union Européenne des normes comptables IFRS qui appliquent la notion de « fair value » : la valeur « juste » d’un actif, c’est sa valeur de marché au moment où on arrête les comptes (« mark-to-market ») et s’il n’y a pas de marché on utilise un modèle, non précisé d’ailleurs par les normes (« mark-to-model »). La norme IAS 39, qui applique cette règle dans le cas des actifs financiers, a été d’emblée contestée par les groupes bancaires et d’assurance, qui y voyaient à juste titre l’importation dans leurs comptes de la volatilité du marché. Précision importante : l’Union Européenne a délégué dès 2002 l’élaboration de ces normes à l’IASB, organisme d’expertise entièrement privé basé à Londres, immatriculé aux Etats-Unis dans l’Etat de Delaware, financé et contrôlé de fait par les grands cabinets d’audit. L’UE n’a pas de contrôle réel sur l’IASB : elle peut seulement refuser une norme mais ne peut officiellement en proposer aucune.
    Comme le savent les gens qui viennent sur ce blog, le « mark-to-market » sur les actifs financiers était aussi appliqué aux Etats-Unis, jusqu’à ce que le lobbying actif (et les arguments sonnants et trébuchants) des banques d’affaires aboutisse à son abolition par le Congrès. Ce dernier, à la différence des instances européennes, peut en effet modifier les normes comptables (US GAAP aux Etats-Unis).
    Il est clair que le « mark-to-market » sur les actifs financiers, qui arrange beaucoup de monde en période de marchés haussiers, devient insupportable aux mêmes acteurs quand les marchés chutent. Cela ne fait qu’illustrer l’inconsistance de cette idée. En même temps la comptabilisation au coût historique, qui est l’alternative comptable classique, est aussi très discutable : en gardant la même valorisation au long des années, on finit par perdre le lien avec l’évolution économique réelle.
    Dans le cas des actifs financiers, il me semble qu’on peut sortir de l’alternative en soutenant que leur valeur n’est ni objective (au sens où je l’entends, c’est-à-dire indépendante du point de vue des acteurs) ni complètement arbitraire et indifférente (ce qui serait une position « relativiste » ou « postmoderne »). On s’en sort en disant que c’est le produit d’un jugement, donc d’une délibération entre des acteurs dotés d’une expertise sur la question. Ensuite seulement vient la question de la façon dont on procède concrètement pour que ce jugement s’applique et pour qu’il soit doté d’une légitimité suffisante. Ce que je propose là-dessus n’est qu’une des options possibles.
    A ceux qui ont peur des mots « politique » ou « expert », je dirais simplement que la valorisation des actions est de fait, déjà, un objet collectif et qu’il y a de fait, aujourd’hui, des débats et des décisions politiques dans ce domaine : j’ai noté la délégation de pouvoir à l’IASB par le Parlement européen, le débat au Congrès américain sur le « mark-to-market ». Le président de l’AMF s’est récemment alarmé des effets de l’application de la directive européenne MIF (Marchés d’Instruments Financiers) qui, en mettant en concurrence les plates-formes de négociation, fait qu’une même action a maintenant non plus un cours public mais plusieurs cours différents simultanément, qui ne sont pas tous publics et pas tous déterminés de la même façon. Il y a aussi depuis longtemps des débats sur la façon d’assurer l’indépendance des acteurs chargé de valoriser les sociétés et/ou leur qualité de crédit : auditeurs, analystes financiers, agences de notation. Dans les mois suivant l’éclatement de l’affaire Enron, on pouvait lire dans le Financial Times des articles prônant la nationalisation des grands cabinets d’audit. Classiquement, on met surtout l’accent sur leur indépendance vis-à-vis des dirigeants des sociétés qu’ils évaluent ; on oublie un peu l’indépendance vis-à-vis des investisseurs, des acteurs qui font le marché et la valorisation sur le marché. Encore une fois cet « oubli » a des raisons théoriques précises : la théorie financière reste axée sur l’idée que le marché donne la vérité de la valeur, et elle est faite d’un point de vue d’investisseur et pour eux, ce qui par construction l’empêche de les mettre en question. C’est en critiquant ces derniers présupposés qu’on en arrive logiquement à reformuler la nécessaire indépendance des valorisateurs. Ce qui me paraît clair, c’est que l’autorégulation n’est pas une option.

  16. @charron
    C’est le travail des agences de notation de donner une fair value. Mais ces dernières semblent simplement pousser a la baisse quand la conjoncture se dégrade et a la hausse quand ca ne peut plus baisser.
    OU recruter et a quel prix des expert supérieurs a ceux des agences de notation.
    La valeur des actions ne dépend pas uniquement des données comptables mais de la conjoncture économique
    quand on voit le peu d’experts capables de prévoir une catastrophe financière mondiale on peu se demander ou on va trouver ceux capable de donner une fair value aux actions.
    Donner une fair value idéale c’est aussi prendre en compte les résultats a venir de l’entreprise pas seulement ses fondamentaux.
    On sait tres bien que d’un expert a l’autre les résultats seront différents, la part de subjectivité est trop importante
    il suffit de voir les divergences concernant la conjoncture mondiale qui vont de la crise n’a pas commencé et va etre terrible a la crise est bientot finie on voit des signes de reprises, des » green shots » , les expert ne sont pas vraiment fiables,
    ils donnent leur opinion, et les politiques sont comme le marché, ils fluctuent selon leurs interrets on voit comment ils préfèrent dire que tout va mieux ,cacher les chiffres réels du chomage, mettre en avant les créations d’autoentreprises alors qu’une bonne part ne sont pas viables…
    Bien sur vous rappeliez qu’il ne s’agit pas de donner une valeur objective mais une valeur juste ou plutot juste une valeur
    en fait une valeur complètement biaisée mais sans la spéculation c’est en effet un progrès!
    Mais bien sur on peu se poser la question de savoir ce qui se passe si on décrète qu’une action vaut 10 euro et qu’il n’y a aucun acheteur a ce prix ou si une action devrait valoir 4 euro et que tout le monde la veut.
    Ca développerait sans doute le marché de grés a grés.Que l’on peut bien sur interdire! Mais on peut aussi interdire les paradis fiscaux!. Vouloir tout controler est une utopie, comme l’a fait remarqué Paul Jorion les outils de régulation existent mais les politiques ont encouragé a être moins regardant. résultat la SEC est discréditée alors qu’elle n’a fait que suivre les directives gouvernementale plus ou moins explicites. Car comme vous l’avez fait justement remarquer en période de croissance les règlementations sont des entraves a l’augmentation des profits en tout genres.
    J’en arrive a me demander qui vous voulez protéger les actionnaires ou les entreprises?
    Les entreprises n’ont pas besoin d’etre protégées si le marché action baisse trop elles font appel a l’obligataire
    si leurs actions montent trop c’est pas un problème.
    En fait les actions ne sont pas un problème pourquoi chercher a les controler plus ? Elles le sont déja par l’amf en france ou la sec aux états unis. Non le probleme c’est principalement la spéculation sur les matières premières
    ou la en effet une fair value serait la bienvenue. Si on prend l’exemple du pétrole l’opep semble avoir eu une action efficace pour faire remonter le cour du pétrole en réduisant sa production, environ a 70 euro, c’est un prix qu’ils avaient souhaité pour leur permettre de continuer leurs investissement pour l’extraction . Qui va décréter que le cours ne doit pas dépasser 70 euro en cas de reprise de la croissance? Les états?Alors qu’ils sont hyperendettés et que les taxes sur les carburants représente une bonne part de leurs rentrées fiscales?
    Les consommateurs? Non ils sont obligés de consommer pris en otage. Oui surement des experts qui vont dire que le cours ne doit plus bouger. On a entendu Sarkozy il y a un mois dire qu’il fallait se mettre d’accord pour réguler le prix du pétrole et des matières premières , on l’a entendu faire des déclarations en ce sens, il y a un mois… depuis..
    Alors des experts… pas tres utile on sait que les fluctuations sont dangereuses on n’a pas besoin d’experts pour déterminer les prix on connait le prix souhaitable pourtant il va y avoir de fortes fluctuations c’est inévitable car en cas de reprise la production va mettre plusieurs mois a se remettre en marche et les cours exploser a la hausse et en cas de poursuite de la crise ce sera la chute noyé par les stocks les cours s’effondreront. Quel sera le courageux gouvernement qui se passera de la manne des taxes en cas d’envol du cours du brut?
    C’est tres courageux de votre part de faire des propositions pour amélirorer le fontionnement de l’économie
    ce genre de réflexion peut en amenener d’autres.
    Cela dit les prix sont souvent issus de rapports de forces politiques ,qui aurait une légitimité aux yeux de tous?
    La naissance d’une conscience de l’interret commun semble etre un préalable a tout changement sans cela toutes les tentatives de règlementation seront vouées a l’échec.

  17. Dire que l’interret pour les actions avec un cours règlementé serait le meme reste contestable
    ce qui fait l’interret pour les actions c’est la différence entre le cours et la valeur estimée par l’acheteur lui meme guidé parfois par des experts. Donner une valeur estimée par des experts aux actions revient a cesser de les coter en continu , votre proposition revient a fermer les bourses et a faire uniquement appel a l’obligataire. Et pour les matières premières la solution est politique mais de politique internationale un jeu ou la loi du plus fort est toujours de mise , ou les compromis se font le couteau entre les dents pas a coup de rapports d’experts.

  18. @ Alfeel, quelques remarques :
    -il y a un malentendu : vous et moi ne parlons pas de la même chose quand nous parlons de « fair value ». Moi j’évoquais seulement la notion telle qu’elle a été conceptualisée par l’IASB, et qui revient à dire que ce qui est « fair », c’est ce que dit le marché, donc la « fair value » c’est le prix donné par le marché, et s’il n’y a pas vraiment de marché (pas assez de liquidité…) alors on a recours à un modèle. Vous, vous utilisez l’expression « fair value » pour parler en fait de ce qu’on appelle souvent « valeur fondamentale » ou « valeur intrinsèque », ce qui est tout à fait autre chose.
    -je suis assez d’accord avec vous sur les matières premières : il y a d’énormes problèmes sur ces marchés, et ce serait un gros progrès si on arrivait à en éliminer la dimension spéculative, comme Paul Jorion le demande depuis un bon moment. Si je n’en parle pas, c’est juste parce que ce n’est pas mon sujet et que je le connais un peu moins bien.
    -il n’y a pas de problème sur les actions ? Je n’en suis pas convaincu, mais surtout il y a un constat qu’on peut faire : depuis 10 ans les sociétés cotées ont fortement développé la fonction relation investisseurs, elles accordent des budgets de plus en plus importants à ces équipes qui sont en fait chargées de veiller sur le cours en essayant de « gérer » le consensus des analystes, en surveillant les thématiques qui peuvent plaire aux gérants, en fait en essayant par tous les moyens de « travailler » l’opinion du marché. J’ai interviewé des analystes et des responsables relations investisseurs, mais aussi des consultants rémunérés par ces derniers pour récupérer des informations sur qui achète et vend leurs actions et à quel prix. Si le cours de leur action n’était pas un souci pour les sociétés cotées, paieraient-elles (cher !) de tels consultants ? Auraient-elles développé la fonction relations investisseurs au point de voir les titulaires de ces fonctions devenir des sortes de « speechwriters » des PDG ?
    -pas plus que vous je ne suis un fan des experts. Simplement, si on les récuse, par quoi les remplacer ? Quand on laisse les prix des marchés financiers fluctuer librement, on a toujours de toute façon des « gourous », des gens qui sont écoutés, qui contribuent à former et/ou à amplifier l’opinion du marché. Les marchés financiers, c’est du traitement de l’information qui relève de phénomènes d’opinion, là-dessus j’ai été assez convaincu par ce qu’explique André Orléan. Pour sortir de ce système, je crois qu’il faut effectivement qu’il y ait des gens qui établissent une « valeur fondamentale », tout en sachant bien que cela ne peut pas être « scientifique » au sens des sciences « dures ». On peut (et on doit !) critiquer et contrôler les analystes et les agences de notation, maintenant en fait leurs errements, en particulier le fait qu’ils suivent et amplifient les tendances, sont beaucoup plus dûs au fonctionnement des marchés et au cadre dans lequel ils travaillent qu’aux lacunes de leur expertise. Là-dessus tous les gens qui les ont interviewés et qui savent comment ils travaillent sont d’accord : le premier intérêt de ces gens, c’est de ne pas perdre leurs clients. Ils sont donc très puissamment incités à dire à leurs clients ce qu’ils ont envie d’entendre, c’est-à-dire le plus souvent à aller dans le sens de la tendance du moment. Il est très fréquent qu’ils pensent une chose et qu’ils sont plus ou moins contraints de dire autre chose : lisez le livre d’Edouard Tétreau (l’analyste qui suivait Vivendi au temps de Messier), il est très clair là-dessus. Le principal problème ce n’est pas l’expertise c’est la dynamique des marchés. Cela ne veut pas dire qu’il n’y ait pas de problème au niveau de l’expertise et que tout soit clair et transparent dans ce domaine, mais ce n’est pas le plus grave.

Les commentaires sont fermés.