Quel est le rapport entre la réalité et, d’une part les mots, d’autre part les formules mathématiques ?

Qu’il s’agisse des mots ou des objets mathématiques, le rapport entre eux et la réalité demeure mal compris en dépit de vingt-cinq siècles de réflexion sur le sujet par la science et par la philosophie.

Certains mots sont les étiquettes d’objets, mais ceci ne s’applique qu’aux mots qui ont un « référent » matériel évident, comme les pommes ou les poires ; un mot tel « néanmoins » n’est manifestement pas l’étiquette d’un objet existant dans le monde.

Le rapport entre les objets mathématiques et la réalité présente des aspects très divers :

1. L’arithmétique a un rapport « naturel » avec le monde. Les « nombres naturels » comme trois fonctionnent comme des étiquettes. Mais ce rapport
« naturel » est moins évident déjà pour les « nombres irrationnels » tels que racine carrée de deux qui est l’étiquette de la diagonale d’un carré de côté égal à un. Le rapport « naturel » a disparu avec les « nombres complexes » dont une partie est imaginaire : un multiple de la racine carrée de moins un – laquelle n’a plus de signification intuitive du tout. De même pour les
« nombres transfinis » qui sont des ensembles originaux au-delà du fini.

2. La géométrie a aussi un rapport « naturel » avec le monde : elle décrit les propriétés des proportions remarquables des grandeurs que l’on observe sur des surfaces et dans des volumes. La géométrie opère sur le continu comme l’arithmétique sur le discontinu. Quand l’arithmétique travaille sur le continu, elle montre ses limites et est obligée de recourir à l’approximation.

3. Certains mathématiciens ont cherché à purifier la mathématique de ce rapport « immédiat » avec la réalité : Cantor reformule le nombre comme un symbole abstrait engendré par une simple règle (« principe d’induction complète » de Poincaré), Frege accuse Hilbert de vouloir en faire de même avec la géométrie.

4. Le calcul différentiel, on l’a vu (Qu’est-il raisonnable de dire à propos de l’avenir ?), est né pour décrire des trajectoires, sinon, l’algèbre est surtout abstraite, elle est souvent comme une « logique » qui réglerait l’arithmétique et la géométrie.

5. Lorsque le rapport « naturel » d’un modèle mathématique à la réalité est perdu, le modèle ne retrouve de signification qu’une fois « interprété », c’est-à-dire lorsqu’on établit des « règles de correspondance » entre lui et des objets du monde réel : lorsque l’on dit « ce symbole représente la distance, celui-ci le temps, et celui-là la vitesse », on établit un « isomorphisme », une correspondance de configuration et de « métrique », de grandeurs, entre un modèle mathématique et son « interprétation » dans le monde.

Dans la pensée traditionnelle chinoise, le « caractère » représentant quelque chose fait partie de cette chose au même titre que ses autres propriétés : le mot est un attribut de la chose elle-même.

6. Le nombre dans la conception que s’en fait l’« idéaliste platonicien » est un peu comme le caractère en Chine : le nombre qui caractérise la chose est un aspect de la chose elle-même, et le mathématicien n’invente pas les mathématiques, il les découvre, semblable à un explorateur qui découvre un continent.

7. Chaque nouveau « système de nombres » a été créé pour résoudre une impasse au sein des mathématiques, ce que les philosophes appellent une
« impossibilité transitionnelle ».

8. Résoudre une telle impasse est une entreprise très différente selon que l’on conçoit les mathématiques comme « découvertes » ou « inventées ». Le fameux théorème d’« incomplétude de l’arithmétique » de Gödel a vu s’affronter mathématiciens, logiciens et philosophes autour de la question : le théorème est-il une découverte ou tour de passe-passe ? (*)

Une conception qui contourne ces difficultés, c’est celle que je défends, qui replace l’Homme pleinement au sein de l’évolution naturelle du monde, et qui considère que les mots et les objets mathématiques ne sont ni découverts ni inventés mais qu’ils se créent et que le lieu de leur création est l’esprit humain.

(*) Voir mon texte « Le mathématicien et sa magie : théorème de Gödel et anthropologie des savoirs » ; sur mon site Internet et le blog que je lui ai consacré : Le loustic qui s’est convaincu qu’Einstein était bête.

0Shares
Recommandez par mail Recommandez par mail

Les modèles financiers « scientifiques », et les autres

En fait, les choses ne se sont pas mal passées, comme quoi on s’affole souvent pour pas grand’ chose ! Le marché américain avait joué au yo–yo toute la journée pour regagner 1 % en fin de séance sur une bonne nouvelle. Je cite ici le Wall Street Journal à propos du retournement de la tendance « dû en grande partie au soulagement lorsqu’il s’avéra que la rumeur d’une crise [mise en faillite imminente] du promoteur immobilier Beazer Homes était sans fondement ». L’action de Beazer avait perdu jusqu’à 40 % de sa valeur à un moment de la journée, pour finir seulement à – 21 %. En cette période agitée, on est souvent obligé de se contenter des seules bonnes nouvelles qu’on trouve.

Ceci dit, je vais quand même commencer à vous parler des modèles financiers. Je ne crois pas prendre un risque énorme.

Les organismes de tutelle des compagnies financières autorisent deux types de modèles : ceux dont la scientificité est prouvée et ceux qui correspondent à une « norme industrielle » (industry standard). Remarque préliminaire : si la première catégorie avait suffi, on n’aurait pas eu besoin de la seconde : il y a donc des modèles sans scientificité et dont la garantie ne repose que sur le consensus de l’industrie financière.

Je vais d’abord dire un mot sur les modèles « scientifiques » et pour tempérer l’enthousiasme que je décèle, je vais commencer par préciser que les modèles financiers « scientifiques » se composent en général de multiples parties dont le degré de scientificité est lui très variable. Un modèle typique comprendra par exemple cinq ou six composantes atteignant un degré de précision qui permettra l’usage de cinq décimales, et une dernière dont l’équivalent est le geste bien connu consistant à mouiller son doigt et à le lever pour prendre le vent. On en trouve un bon exemple dans le modèle dit de Black et Scholes utilisé pour évaluer le prix d’une option, où la « volatilité implicite », souvent hurlée d’un bout à l’autre d’une salle de marché, est une variable de ce genre, dont – vu son mode de transmission – la valeur ne peut prendre qu’un très faible nombre de décimales.

La précision effective d’un tel modèle « scientifique » dans son ensemble est bien entendu celle de sa composante la plus grossière, fait généralement négligé par ses utilisateurs. L’image qui me vient à l’esprit, est celle que François Jacob utilisait à propos du cerveau humain : un moteur à réaction greffé sur une charrette à bras.

En principe, lorsqu’existe un modèle « scientifique », celui–ci devrait prévaloir sur tout concurrent correspondant à une « norme industrielle ». Ce qui n’est cependant pas toujours le cas. Ainsi, dans un grand nombre de processus en finance, la meilleure prévision possible d’un prix est la dernière cotation connue. La chose peut être établie mathématiquement dans certains cas ; dans beaucoup d’autres elle peut être vérifiée par l’analyse de séries de données historiques. Il ne s’agit certainement pas d’une prévision impressionnante par son originalité mais c’est bien celle qui minimise l’erreur et est donc la seule authentiquement « scientifique ». Or cette prévision n’est jamais utilisée en finance et la « norme industrielle » est toujours une formule très compliquée qui produit un chiffre différent ; le raisonnement sous–jacent est, à mon sens, que si quelqu’un est grassement payé en tant qu’ingénieur financier, il doit pouvoir faire mieux qu’affirmer que le prix de demain sera probablement le même qu’aujourd’hui.

Un bon exemple en est fourni par les prévisions relatives à la courbe des taux, qui représente le taux flottant correspondant à un prêt à trois mois, six mois, un an, cinq ans, dix ans, etc. et dont, comme je viens de le dire, la meilleure prévision possible est qu’elle se maintiendra telle quelle. La « norme industrielle », au contraire, est qu’on peut utiliser comme prévision pour la courbe des taux, la courbe des taux à terme.

La courbe des taux à terme est une courbe qui montre ce qu’il en coûte aujourd’hui d’emprunter à terme, c’est–à–dire plus tard. Je vais chez le banquier et je lui dis : « J’aurai besoin d’un million dans un an que je vous emprunterais pour trois ans. Pouvons–nous en fixer le taux maintenant ? » Si le banquier dit oui, vous aurez fixé le taux à terme pour trois ans, dans un an. Ce que le taux à terme exprime est ce qu’il en coûte aujourd’hui d’emprunter pour trois ans dans un an ; la « norme industrielle » consiste à dire que la courbe des taux à terme exprime « ce qu’il en coûtera d’emprunter pour trois ans dans un an », ce qui est tout simplement faux. La distinction est subtile mais la confusion réside dans le fait qu’il ne s’agit pas d’un taux fixé dans l’avenir mais d’un taux fixé aujourd’hui « à propos » de l’avenir et sa capacité de prédire celui–ci est en conséquence, tout simplement nulle.

Les deux types de modèles, « scientifique » et de « norme industrielle » diffèrent pour ce qui touche au risque systémique qu’ils présentent, c’est–à–dire quant au risque d’effet boule de neige qu’ils constituent pour les marchés financiers. Les modèles « scientifiques » ne présentent pas de risque systémique pour la raison suivante : soit ils sont proprement scientifiques et sont donc exacts, soit ils sont « scientifiques » au titre de ceux que j’ai évoqués précédemment où différentes composantes présentent des degrés divers de précision, et chacun se trompant différemment, aucun effet global n’en résultera. Un risque systémique réel existe cependant dans l’usage des modèles dits de « norme industrielle ». Ils ne sont pas scientifiques et par conséquent se trompent, mais du fait qu’ils ont été adoptés par l’ensemble de la branche, tous ses utilisateurs se trompent exactement de la même manière. Le jour viendra où chacun de ces utilisateurs posera au même moment le même geste – qui n’est pas celui qui conviendrait – et un effet global catastrophique en résultera.

0Shares
Recommandez par mail Recommandez par mail

La journée de tous les dangers

C’est aujourd’hui.

Ce soir (heure locale), il faudra soit que j’écrive « Encore un jour de sursis ! », soit que j’entreprenne l’autopsie. Le système financier se serait alors révélé d’une extraordinaire fragilité. Il faudrait que je vous parle alors en particulier des modèles utilisés en finance et de leur part de responsabilité.

À tout à l’heure !

0Shares
Recommandez par mail Recommandez par mail

Ingmar Bergman (1918 – 2007)

Ce soir j’ai voulu que nous voyions un film d’Ingmar Bergman, mort ce matin. Nous nous sommes installés sur le sofa avec un grand bol de fraises et de framboises et nous avons regardé « Fanny et Alexandre ».

La mère hurlait, passant et repassant devant le cadavre de son mari et je me suis dit que, comme à elle, la mort me serait toujours inacceptable. J’ai dit
« Nous ne serons pas toujours ensemble ».

Aujourd’hui, mon grand père aurait eu cent vingt cinq ans.

Les grands auteurs nous confrontent à l’horreur inévitable. Et nous les en remercions quand même.
Ingmar Bergman et Liv Ullman
Merci Monsieur Ingmar Bergman.

0Shares
Recommandez par mail Recommandez par mail

Est-il raisonnable de chercher des choses de plus en plus petites ?

La science découvre des objets de plus en plus petits. Les plus petits que l’on connaisse sont si petits que la seule justification pour chercher plus petit encore est l’espoir d’en découvrir de si petits qu’on n’en trouvera jamais de plus petits. Mais la démarche est-elle bien « raisonnable » ?

Ce qui oblige à poser la question est précisément le fait qu’il a toujours été possible jusqu’ici de trouver plus petit encore mais la conviction d’être arrivé au niveau le plus bas qui soit possible s’est toujours révélée temporaire.

De plus, les objets découverts ont toujours été de moins en moins compréhensibles : le comportement de plus petits que nous connaissions ne se situe plus ni dans le temps ni dans l’espace quotidiens ; il est impossible de s’en faire une représentation intuitive : il est impossible de les
« visualiser ». Pour tenter de les resituer dans un cadre qui nous soit compréhensible, certains se sont aventurés à leur supposer des logiques qui leur seraient spécifiques ; ainsi, en 1936, Birkhoff & von Neumann, puis Paulette Février en 1937, et en 1944, un philosophe, Hans Reichenbach.

C’est le fait même que les nouveaux objets découverts sont peu compréhensibles qui nous force automatiquement – dans une perspective « réductionniste » – à chercher à restaurer l’intelligibilité perdue en descendant d’un niveau et en mettant en scène des objets plus petits dont le comportement rendrait compte des faits problématiques au niveau supérieur. C’est cet « automatisme » qui fit qu’à la fin du XIXè siècle le physicien et philosophe positiviste Ernst Mach refusa de croire à l’existence de l’atome, tant la « découverte » de celui–ci lui semblait une simple « nécessité » conceptuelle permettant de sauver certaines théories existantes.

Le fait que ce que nous savons des objets les plus petits se réduise, en l’absence de toute appréhension intuitive, à des systèmes d’équations ravit l’« idéaliste platonicien » pour qui la Réalité est elle-même mathématique. Le « positiviste » aimerait saisir l’objet « en lui–même », derrière le modèle. Le « philosophe naturel », lui, se méfie de tout ce qui ne peut pas être décrit de façon complète à l’aide de phrases (l’accent est mis par lui sur le qualitatif, de préférence au quantitatif).

Sur le plan de la vérification expérimentale, la mesure d’un objet très petit implique d’« interpréter » l’effet amplifié d’une interaction entre lui et un appareil de mesure qui n’est rien d’autre alors qu’un révélateur. Est-on encore certain dans ce cas de pouvoir distinguer ce qui, dans la mesure, reflète, d’une part, l’objet étudié et, d’autre part, le em>révélateur avec lequel il inter-agit ?

Les modèles mathématiques non–intuitifs de petits objets postulés réclament sans cesse d’autres modèles qui restaureraient l’intelligibilité là où celle–ci fait défaut. Mais tout nouveau modèle peut faire supposer à son tour que des objets réels correspondent à la partie originale de sa construction. Est-il bien raisonnable de découvrir de cette manière de nouveaux objets minuscules à partir de modèles qui semblent essentiellement s’« auto-engendrer » ?

Au XIXè siècle, le philologue Max Müller avait émis l’hypothèse que les mythologies résultent du fait qu’une explication n’est jamais complète : il subsiste toujours un résidu « anormal » qu’il convient d’expliquer à son tour. La recherche du plus en plus petit n’est-elle pas prisonnière désormais d’un simple « effet Müller » ? On pourrait le penser à la lecture de ce que Georges Lochak écrit sur l’équation de Dirac : « Les lois de symétrie font surgir certaines grandeurs mathématiques dont la présence s’impose à nous, au début comme celle d’objets un peu incongrus, voire encombrants et inutiles, mais dont l’interprétation nous révèle, pour certains d’entre eux, des propriétés physiques nouvelles ou des objets physiques entièrement nouveaux ; tandis que d’autres de ces grandeurs mathématiques restent longtemps rebelles à toute interprétation dans l’espace physique et conservent leur mystère » (Georges Lochak, « La géométrisation de la physique », in Logos et théorie des catastrophes. À partir de l’oeuvre de René Thom, Genève : Patino, 1988 : 187–197).

S’arrêter dans notre poursuite du plus en plus petit là où Mach le proposait aurait sans doute été prématuré. Ceci dit, ne serait–il pas plus raisonnable de décider un jour conventionnellement qu’on ne cherchera plus à découvrir des objets plus petits encore, en raison de notre incapacité de distinguer à ces niveaux des objets réels de simples effets de langage, dont on sait qu’ils sont capables eux de s’« auto–engendrer » perpétuellement ?

0Shares
Recommandez par mail Recommandez par mail

L’Afrique exige la mobilisation de tous

Je commencerai par répondre à un reproche justifié de Uzodinma Iweala dans son « Cessez de vouloir « sauver » l’Afrique ! » (Le Monde 28/7/2007) en l’assurant que ce que je dis ici est fondé sur deux choses uniquement : sur mon expérience dans des projets de développement en Afrique et sur la personne que j’étais au départ.

Oui, si nous, Occidentaux, nous indignons devant une situation africaine, la première chose à faire, avant d’attacher notre cape de croisé ou de Superman est de voir avec les parties impliquées comment elles analysent elles–mêmes la situation. Une compréhension « intuitive », extérieure, laisse toujours échapper 80 ou 90 % de la complexité du problème. De plus, la solution « évidente », vue de l’extérieur, a toutes les chances d’avoir déjà été tentée localement et si elle n’est pas appliquée en ce moment ce n’est pas faute d’avoir été aperçue par les Africains eux–mêmes mais tout simplement parce qu’elle a déjà échoué. Donc le premier geste à poser devant l’indignation, c’est l’écoute : l’attitude de l’« intellectuel au service du peuple » a conservé toute sa validité au cours de ses cent–cinquante ans d’existence et peut être transposée avantageusement à de nombreuses situations.

Ceci dit, l’Afrique peut bénéficier de tenter de résoudre ses problèmes en acceptant notre collaboration. À condition que les premières formes de l’aide ne soient pas les chèques en blanc et les bataillons de parachutistes. Là où nous pouvons aider l’Afrique, c’est par notre expérience de la modernité. Oh, nous avons aussi nos propres guerres tribales et les plus récentes ne sont pas bien vieilles (le Kosovo est encore à la une de l’actualité) mais nos institutions politiques ne sont plus paralysées depuis plusieurs siècles par l’irrationalité : la sorcellerie et les accusations de sorcellerie n’y ont plus cours. Nous avons appris à penser nos problèmes – sinon les résoudre – dans les termes qui leur sont appropriés et eux seuls, c’est là notre capital le plus précieux et cette expérience nous pouvons et nous devons la partager.

On disait de l’Afrique au XVIIIème siècle : « the white man’s grave ». Ce n’était pas sans raison, mais elle était aussi et surtout, la tombe de l’homme noir. Le principal problème de l’Afrique, ce n’est pas comme on l’imagine souvent de loin, les Africains, le problème de l’Afrique c’est un continent extraordinairement dur à ses habitants, par son climat et par la virulence de la maladie. Et ce problème est si énorme qu’il exige la mobilisation de tous. Pour que ceci soit possible, il faut que nous, Occidentaux, apprenions l’humilité. Il faut aussi que les Africains nous pardonnent la manière dont nous les avons traités et dont nous les traitons encore, et il y a hélas beaucoup, beaucoup à pardonner.

0Shares
Recommandez par mail Recommandez par mail

La tête des gouverneurs de la Fed

Il s’est passé tant de choses ici durant la semaine écoulée qu’on ne sait pas trop où donner de la tête. Personne n’a payé aucune attention par exemple aujourd’hui aux 3,4 % de progression du PNB au cours du deuxième trimestre. Il est vrai que du train où vont les choses, on n’est pas près d’égaler ce chiffre au troisième. Les marchés boursiers, tous indices confondus ont perdu plus de 4 %. Mais comme je l’ai dit, la bourse joue en ce moment au yo–yo. Non le plus important, ce sont les taux.

Le premier diagramme montre ce qui s’est passé entre mercredi (orange) et jeudi (vert).
Les taux américains - 26 juillet 2007

Et le second, entre jeudi (orange) et vendredi (vert) : moins marqué, mais la même tendance.
Les taux américains - 27 juillet 2007

Une courbe des taux, ça monte, non ? Plus je prête mon argent longtemps plus mon placement sera avantageusement rémunéré ! Oui, en principe mais ce n’est certainement plus ça que cela montre : ce qu’on voit, c’est que vous pouvez prêter pour six mois à 4,9 % et à 4,5 % pour deux ans. C’est ce qu’on appelle une « courbe des taux inversée ». Ce qui ne fait certainement pas l’affaire des banques qui empruntent souvent elles–mêmes au court terme et vous prêtent sur le moyen ou le long terme : si elles doivent emprunter à
4,9 % pour vous consentir un emprunt dont le taux d’intérêt sera lui de 4,5 %, elles peuvent mettre la clé sous la porte.

Comment en arrive–t–on là ? C’est bien simple, d’un côté on a l’économie qui décide des grands mouvements des taux d’intérêt, la vraie économie, pas la finance : quand les affaires marchent, les entreprises peuvent rémunérer davantage les capitaux qu’on leur avance ; au contraire, quand les affaires ne vont pas, les capitalistes doivent se contenter de ce que les entreprises peuvent leur payer. C’est un système de métayage : les capitalistes et les chefs d’entreprise se partagent la plus–value des capitaux placés, qui varie selon les circonstances, une fois déduits les salaires. De l’autre côté, on a la finance : les marchés de capitaux où, comme on l’a vu hier, dans les moments d’incertitude, ceux–ci se placent aujourd’hui en bourse et demain dans les obligations d’état, ou vice–versa.

Les taux courts – la partie gauche de la courbe – la Banque Centrale américaine, la Federal Reserve, peut les influencer : c’est elle qui fixe le plus court, le taux au jour le jour. Quand l’économie pense une chose et la Fed, une autre, on voit ce qu’on observe aujourd’hui : les taux longs reflètent ce que l’économie peut générer, et les taux courts, l’opinion de la Banque Centrale.

On entendait dire aujourd’hui : « Il faudra que la Fed baisse le taux au jour le jour ! » Oui, effectivement : à moins que ses gouverneurs ne souhaitent qu’on leur coupe la tête !

0Shares
Recommandez par mail Recommandez par mail

La trajectoire déterministe

On lit ceci dans « Mon allocution devant la nouvelle promotion » de Woody Allen : « Mon vieil ami Jacques Monod évoquait souvent la nature aléatoire de l’univers. Il était convaincu que tout dans l’existence résulte du simple hasard, à la seule exception sans doute de son petit déjeuner, dont il était pratiquement certain qu’il était préparé par sa bonne » (*). Ce qui m’a fait penser à ce passage, c’est le tumulte des marchés boursiers dans la journée, où la crise de l’immobilier provoqua un assèchement du crédit pour les fusions d’entreprises qui, à son tour, fit désespérer de la bourse. Du coup, les capitaux refluèrent cette fois vers les obligations, faisant monter leur prix et baisser parallèlement les taux, ce qui, paradoxalement, est plutôt bon dans le moyen terme pour l’immobilier américain puisque cela signifie pour les emprunteurs « sous–prime », des paiements mensuels moins élevés. Comme quoi !

Ce qui m’apparaissait, c’est que je me retrouvais dans la même situation que Jacques Monod dans la parabole de Woody Allen : j’avais, d’une part, suggéré dans mon blog Qu’est-il raisonnable de dire à propos de l’avenir ? qu’il n’était pas raisonnable de parler de l’avenir mais j’avais, d’autre part, prédit dans mon livre « Vers la crise du capitalisme américain ? », un scénario qui, réglé comme du papier à musique, était en train de se réaliser inexorablement.

En 2005, j’avais montré à Alain Caillé une première mouture de l’ouvrage. Il me proposait aussitôt d’en publier l’introduction dans La Revue du MAUSS (**) et sans me vanter – ou je devrais plutôt dire « en me vantant un petit peu », tout était là de ce qui se déroule en ce moment sous nos yeux.

Quelqu’un dira certainement du livre qu’il était « prophétique » mais il ne s’agit pas de prophétie : il s’agit simplement du fait que le cours des choses décrit parfois une trajectoire déterministe, autrement dit, qu’il opère parfois sur le mode de la nécessité qui est, comme je le disais dans ma chronique, le substitut du vrai dans le discours qui porte sur l’avenir.

Nouvelles du baromètre. Il y a une semaine, nous avions laissé l’indice ABX (BBB– 2007–1) à 44,86 %. Il est descendu aujourd’hui à 37,72 %. Mais les événements de la journée nous obligent à nous demander s’il faut continuer de consulter le baromètre quand la tempête fait rage et qu’il suffit en réalité de regarder par la fenêtre pour constater le gros temps qu’il fait. Espérons que la bourrasque n’emportera pas la toiture ! Nous en sommes là !

(*) Woody Allen, The Insanity Defense, The Complete Prose, New York : Random House, 2007, p. 263

(**) La crise du capitalisme américain, « Alter–démocratie, alter–économie », La Revue du MAUSS, No 26, 2005 : 271–278

0Shares
Recommandez par mail Recommandez par mail

Une contagion qui n’en est pas une

L’indice boursier Dow Jones a perdu aujourd’hui 226 points, soit 1,6 % de sa valeur. Rien de très surprenant, la volatilité de l’indice est en effet considérable depuis quelques semaines : la montée des taux rend le marché des obligations peu attractif, l’argent en excès cherche à se placer en bourse et du coup les cotes grimpent, mais comme les mauvaises nouvelles ne manquent pas ils dégringolent à intervalles réguliers, d’où l’effet de yo–yo que l’on observe en ce moment. La mauvaise nouvelle du jour, ce sont les résultats trimestriels de Countrywide, le numéro un du prêt immobilier et plus particulièrement ce que les analystes décèlent dans les chiffres publiés comme « effet de contagion » : les chiffres révèleraient que la crise du « sous–prime » est en train de s’étendre au secteur « prime », celui où – par opposition au « sous–prime » – les consommateurs disposent des moyens financiers qui leur permettent de rembourser leur emprunt.

Si l’on me lit, aussi bien dans mes chroniques ici que dans mon livre « Vers la crise du capitalisme américain ? », on sait que si pour moi la crise de l’immobilier provoque des « métastases » dans des secteurs éloignés – comme les banques suisses ou les fonds d’investissement australiens, il n’y a pas, au sein de l’immobilier, de « crise du sous–prime » qui risquerait de faire tache d’huile en attaquant éventuellement le secteur « prime » : il y a une crise globale du marché immobilier américain dont le secteur « sous–prime » a simplement le triste privilège d’être le plus visible pour la raison élémentaire que les problèmes des pauvres sont par nécessité plus dramatiques et plus spectaculaires que ceux des riches.

Pressé d’expliquer ce matin aux analystes financiers qui l’interrogeaient pourquoi le secteur « prime » est semble–t–il lui aussi attaqué, le PDG de Countrywide, Angelo Mozilo, proposait une excellente analyse : parce que quand le prix de l’immobilier est à la baisse, même la classe moyenne nantie a plus de mal à encaisser les drames familiaux de la maladie, du divorce et de la mort, et ceci parce que la maison ne se vend pas ou très mal, parce que même si on arrive à la vendre, on ne réalise pas de plus–value, parce qu’aussi les organismes prêteurs ont récemment mis au rencard les prêts fabuleux des années 2005 et 2006 : sans apport personnel, sans justificatifs de revenus, à un taux promotionnel et sans remboursement du principal pendant 3, 5, 7 ou 10 ans.

Pour illustrer ce que je veux dire quand je dis qu’il n’y a pas de contagion au sein du secteur immobilier, j’ai emprunté les chiffres que l’on trouve dans l’exposé fait ce matin à Countrywide à l’intention des analystes financiers (accessibles sur leur site Internet). Ce qui est présenté, ce sont les retards de paiement des prêts au logement dans les différents secteurs de l’immobilier : « prime », « sous–prime » et HELOC (Home Equity Line of Credit) qui est un prêt hypothécaire secondaire obtenu en mettant en gage la valeur captive dans les murs du logement.

Le premier diagramme révèle pour le secteur « sous–prime » des retards de paiement aujourd’hui proches de 25%. Les chiffres pour les secteurs « prime » et HELOC, même s’ils sont en progression, semblent suggérer qu’il n’y a pas feu en la demeure.
Retards de paiement
Le second diagramme reprend les mêmes chiffres, à la seule différence que les pourcentages sont représentés par rapport à une échelle logarithmique qui minimise l’impact des tailles absolues et a l’avantage de représenter les mêmes tendances comme des mouvements parallèles.
Retards de paiement (log.)
Le problème des HELOC apparaît ici comme le plus sérieux des trois car sa tendance s’accélère. Sinon, et toute proportion gardée, l’évolution dans les secteurs « prime » et « sous–prime » apparaît remarquablement parallèle, suggérant qu’il n’y a pas contagion mais tout simplement deux expressions du même phénomène.
Cqfd.

0Shares
Recommandez par mail Recommandez par mail

Quand la Chine apprend vite

Une affaire qui passionne depuis quelques temps les milieux financiers internationaux, c’est la tentative de la banque britannique Barclays d’absorber la banque néerlandaise ABN Amro. Les deux banques avaient présenté l’affaire comme pratiquement conclue. L’annonce avait cependant donné des idées à d’autres et en particulier à un consortium constitué de la Banque Royale d’Ecosse, du groupe belgo–néerlandais Fortis et de l’espagnole Banco Santander, consortium qui fit une offre concurrente et d’un montant plus élevé.

Les choses en étaient là jusqu’à ce matin, quand la Barclays annonçait qu’elle bonifiait son offre. Les sous, elle les a trouvés à Singapour et en Chine. La participation du gouvernement de Singapour (Temasek) se montera à 1,4 milliards d’euros. La Chine (la Banque Chinoise de Développement) prend elle une participation de 2,2 milliards d’euros dans la Barclays, qu’elle complètera de 7,6 milliards d’euros supplémentaires si la fusion avec ABN Amro se concrétise. Si l’affaire se fait, la prise de participation totale de la Chine pourrait se monter à 13,5 milliards d’euros.

Ce n’est peut–être pas la première fois que la Chine s’engage de cette manière, mais c’est la première fois qu’elle le fait à concurrence de telles sommes. C’est l’histoire d’une progression : en 2005, Lenovo rachetait pour 1,25 milliards de dollars la production d’ordinateurs personnels d’IBM, un peu plus tard, et la même année, la Société Pétrolière Nationale Chinoise acquérait Pétro-Kazakhstan pour 4,18 milliards de dollars. Au début de cette année, la Chine a investi 3 milliards de dollars dans Blackstone, une « private equity », une firme de placement américaine. J’en parlais ici–même en mai dans La symbiose Chine – États-Unis. Nouvelles du front. On disait à l’époque que la Chine espérait ainsi se familiariser avec la technologie financière de pointe. C’est chose faite : c’est en effet Blackstone qui a conseillé à la Chine sa prise de participation dans la Barclays.

0Shares
Recommandez par mail Recommandez par mail

Quand il est légitime de chanter la Marseillaise

Il est légitime de chanter la Marseillaise quand les circonstances l’exigent et qu’on est seul à pouvoir le faire.

Démonstration.

Au bout de ma première année aux États–Unis, je n’avais plus un rond, aucune perspective d’emploi et quatre enfants à charge. Je m’étais mis à fréquenter les Quakers et l’un d’entre eux m’avait un jour dit : « Il y a une vieille dame qui vient de perdre son mari et son frère. Ce serait bien si quelqu’un pouvait vivre avec elle dans sa maison. Il y aurait un loyer modeste à payer… ».

Evelyn Smith Munro est morte en février dernier à l’âge de 92 ans. « Je suis dans l’Encyclopédie de la gauche américaine », m’avait–elle un jour dit avec fausse modestie. Sa chronique nécrologique dans le Los Angeles Times rappelle qu’elle « accompagnait H. L. Mitchell (un militant socialiste, fondateur du syndicat des métayers des états du Sud) le jour où ils recherchaient le corps d’un syndicaliste apparemment assassiné par les patrons des plantations. Elle participait aux assemblées de métayers, souvent interrompues par les assistants des shérifs accompagnant les « patrons motorisés » – des hommes armés dont le rôle était d’intimider les syndicalistes – elle fut un jour pourchassée par une voiture remplie d’hommes brandissant des fusils et des haches ».

Evelyn était native de la Nouvelle–Orléans où l’on aime la France par principe et sans grand discernement. Le chien qui partageait la maison où je logeais à Laguna Beach (Californie méridionale) de 1997 à 1999, s’appelait « Mardi–Gras ». Evelyne aimait la France mais surtout l’image de la Révolution Française, c’est ce qui la motivait quand elle avait les nervi racistes à ses trousses et c’est pour cette raison que ses filles avaient choisi le 14 juillet pour une commémoration.

Nous sommes arrivés très tard (Adriana travaillait ce jour–là). Il y avait un petit orchestre. Quelqu’un avait–il chanté la Marseillaise ? Ils auraient bien voulu mais personne n’aurait su comment. Alors, samedi dernier, à la mémoire de quelqu’un qui aimait la Révolution Française, et devant un public d’Américains ravis et reconnaissants, d’une voix vibrante, pareil aux héros de Casablanca, j’ai chanté la Marseillaise.

L’Ami du peuple

0Shares
Recommandez par mail Recommandez par mail

La brouille des frères siamois

Le rapport entre les agences de rating – Standard & Poor’s, Moody’s, Fitch, essentiellement – et les compagnies émettrices d’Asset–Backed Securities (ABS) qui rassemblent donc des paquets de prêts au logement individuels
« sous–prime » (subprime) sous forme d’obligations – qui les « titrisent » pour utiliser l’expression consacrée – est un rapport ambigu. En effet, les agences sont rémunérées pour deux types de service distincts : elles aident les firmes émettrices à « structurer » ces obligations et j’ai mentionné hier (Comment fonctionne l’indice ABX) qu’elles fixent par exemple les seuils auxquels des « déclencheurs » permettent à des fonds de réserve d’être réalloués à des « tranches » déficitaires ; elles émettent ensuite une opinion quant au grade de crédit (AAA, AA, A, BBB…) que cette obligation mérite. Il y a là, bien entendu, comme un conflit d’intérêt.

Quand on a commencé de s’apercevoir il y a quelques mois que la performance des ABS récentes était bien moindre qu’initialement prévu, certains y ont vu la preuve d’une collusion entre les firmes émettrices et les agences qui assurent leur rating. Je ne nie pas l’existence d’un conflit d’intérêt, néanmoins je ne pense pas personnellement qu’il y ait eu collusion, d’une part, parce que ces agences ont bien trop à perdre en termes de réputation quand elles se trompent, d’autre part, parce que je connais bien ces milieux où l’on produit des modèles financiers et où le principal souci est d’être consciencieux – sur ce dernier point, je demande qu’on me croie sur parole. Ce qui s’est passé, c’est que les modèles, qui extrapolent les comportements passés en projections pour l’avenir, ne disposaient d’aucune donnée dans le cas de figure où le prix de l’immobilier baisse. À mon sens, les modèles se sont plantés pour cette simple raison.

Reflétant la mauvaise performance de leurs prévisions, la cote en bourse de titres des agences s’est mise à baisser. La rumeur courait que les investisseurs en ABS pourraient les poursuivre en justice pour les pertes qu’ils subissent. Il y a huit jours (Débâcle ? Vous avez dit débâcle ?), pour redresser la barre, Standard & Poor’s annonçait son intention de revoir le grade d’un grand nombre d’ABS (avec des implications pour les Collateralized Debt Obligations qui en contiennent des « tranches »). Moody’s et Fitch lui emboîtaient le pas. L’objectif était bien entendu que cette nouvelle fermeté permette à leur réputation de se refaire une santé.

C’était oublier les firmes émettrices : une nouvelle de l’agence Bloomberg annonçait hier : « À la suite du resserrement de ses directives, Moody’s a été exclue du rating de 70 % des nouvelles Mortgage–Backed Securities commerciales ». Dans un communiqué, l’un des directeurs de l’agence déclarait : « Il ne fait aucun doute à mon sens qu’il s’agit là d’une conséquence de notre nouvelle politique » et il ajoutait : « Un bienfait ne doit pas rester impuni ! »

Le bel équilibre, sur le fil du rasoir du conflit d’intérêt potentiel, avait été rompu. Les deux parties, les agences d’un côté, les firmes de l’autre demeurent cependant dans ce genre d’affaires comme des frères siamois. Si je devais faire un pronostic, j’avancerais que quand les cendres de la crise actuelle (je parle de l’immobilier en général et pas seulement de son secteur
« sous–prime ») seront refroidies, le visage du rating des instruments financiers quant au risque de crédit qu’ils présentent, aura changé du tout au tout.

Nouvelles du baromètre : nous avions laissé hier l’ABX (BBB– 2007–1) à 45 %, il était aujourd’hui à 44,86 %. donc quasiment stationnaire. La nouvelle du jour n’était pas là : le panier d’ABS pour le second semestre cotait aujourd’hui pour la première fois et l’on attendait le résultat avec appréhension. Appréhension justifiée : ABX (BBB– 2007–2) = 50,33 %. Au premier jour de sa cotation, ce panier a déjà perdu, aux yeux du marché, la moitié de sa valeur. Bonjour les dégâts !

0Shares
Recommandez par mail Recommandez par mail

Comment fonctionne l’indice ABX

Je mentionne souvent l’indice ABX, mon baromètre de la santé des marchés financiers américains. J’ai donné ici et là quelques explications de ce qu’il représente mais je ne suis jamais entré dans les détails, je n’en ai en tout cas pas décrit le mécanisme expliquant ses changements de valeur.

J’ai signalé le 11 juillet que la cote de l’indice ABX était dans les trente–sixièmes dessous à 51,42 %. C’était il y a une semaine. Depuis, il a poursuivi sa descente aux enfers et a clôturé aujourd’hui à 45,00 %. La cote dont je parle – à l’instar de l’ensemble de la finance américaine – n’est que l’un des avatars de l’indice : il s’agit de l’indice BBB– pour le contrat le plus récent : le 2007–1. Demain, le 19, un nouvel indice verra le jour, le 2007–2, pour le deuxième semestre. J’ai déjà expliqué que « BBB– » est le plus bas des
« grades d’investissement », celui qui vient immédiatement au–dessous,
« BB », est lui le plus élevé du niveau junk, c’est–à–dire « camelote ». De nombreuses institutions financières, compagnies d’assurance, caisses de retraite, banques, fonds d’investissement, sont statutairement obligés de se cantonner aux grades dits d’investissement. Tout cela je l’ai déjà dit.

Le sous–jacent de l’indice ABX est un panier de vingt Asset–Backed Securities (ABS), ces obligations que l’on construit en agrégeant plusieurs milliers de prêts au logement « sous–prime » (subprime), ceux qui sont accordés aux consommateurs les moins fortunés. Et ce qu’il reflète, c’est la valeur de ce panier de vingt ABS émises par un éventail d’organismes financiers.

La cote de l’ABX est celle d’un « credit swap », c’est–à–dire, et je simplifie un peu, l’équivalent d’une assurance. Lorsque je dis que l’indice vaut 45 %, cela signifie que le prix de l’assurance couvrant les 100 % de la valeur du panier à maturité (quand les prêts auront été entièrement remboursés) est de 55 %
(= 110 % – 45 %). La cote est de 45 %, rappelant que si l’on doit s’acquitter d’une prime d’un montant de 55 % de la valeur initiale, on se retrouvera à l’arrivée avec seulement les 45 % restants. Selon l’expression consacrée : le panier vaut « 45 cents on the dollar » : 45 centimes du dollar.

Le montant de la prime, et partant, la valeur de l’indice, est déterminé par le marché au point de rencontre de ceux qui entendent contracter une telle assurance et ceux qui sont disposés à la vendre. Ce qui détermine le prix demandé comme le prix offert, c’est le sentiment général de ce que le panier vaudra à l’arrivée, autrement dit et en dernière instance, combien de prêts auront été remboursés et combien ne l’auront pas été et, également, dans quelle proportion et à quel moment de leur histoire certains de ces prêts auront été remboursés de manière anticipée, privant les investisseurs de ces obligations de versements d’intérêts sur lesquels ils auraient pu compter.

Ceux qui souscrivent à cette assurance, et ceux qui les vendent, disposent–ils des données objectives pour déterminer une valeur probable du panier quand il arrivera à maturité ? Oui, parce que ceux qui émettent les ABS ainsi que d’autres organismes qui s’intéressent à leur rendement, opèrent mois par mois le suivi des paiements faits par les emprunteurs et attachent une importance toute particulière à certains seuils internes à ces obligations : les
« triggers », les « déclencheurs ». Les deux principaux déclencheurs sont ceux de retards de paiement (60 jours) et de pertes cumulées. J’explique de quoi il s’agit. Les ABS sont divisées en « tranches » (en français dans le texte) qui correspondent à différentes formules de versement aux investisseurs : prioritaire ou non–prioritaire, en début ou en fin de période, portant sur le principal ou sur les intérêts ou sur les deux combinés, etc. Certains des fonds qui sont collectés mensuellement auprès des emprunteurs sont alloués à des fonds de réserve constitués au sein de l’obligation. Certains seuils ont été également préalablement déterminés, conjointement par l’émetteur et par une « rating agency », telles Standard & Poor’s, Moody’s ou Fitch, qui déclencheront (d’où le nom « déclencheur ») s’ils sont atteints, le transvasement de fonds en réserve dans les tranches prioritaires.

Il est aisé de suivre l’évolution des retards de paiement de 60 jours ou davantage qui constituent un signe manifeste de mauvaise santé de l’obligation et d’observer en particulier s’ils se rapprochent du seuil de déclenchement. Et c’est donc ce que chacun fait. L’indice ABX dont tout le monde parle en ce moment est donc le BBB– 2007–1. Il est âgé de six mois. Or à ce très jeune âge, sur les 20 obligations constituant le panier, 8 ont déjà atteint le seuil du déclencheur des 60 jours de retard dans les paiements. Cela ne signifie pas encore des pertes effectives, mais c’est déjà très mal engagé : ni le BBB– 2006–1, ni le BBB– 2006–2 n’avaient atteint ce déclencheur à l’âge de 6 mois – ce qui ne signifie pas pour autant qu’ils se portent bien en ce moment : 18 des 20 obligations du BBB– 2006–2 ont aujourd’hui atteint le seuil du déclencheur. De plus, il s’agit on s’en souvient de prêts « sous–prime » qui bénéficiaient de taux promotionnels initiaux. Lorsque le « vrai » taux entrera en vigueur, les paiements mensuels dont les emprunteurs devront s’acquitter augmenteront de manière significative, allant parfois jusqu’à doubler. Les investisseurs d’ABS, ceux de Collateralized Debt Obligations (les CDO où des ABS sont recyclées) et dans la conjoncture actuelle, les marchés financiers dans leur ensemble, retiennent leur souffle et comme l’indique le baromètre, s’attendent au pire !

1Shares
Recommandez par mail Recommandez par mail

Qu’est-il raisonnable de dire à propos de l’avenir ?

Le fait qu’il y ait un avenir s’observe dans le fait que toute chose est en devenir : elle change.

Dans une perspective « théologique », l’avenir se lit en découvrant la volonté des dieux par la divination.

Dans une perspective « empirique », on cherche les signes d’événements à venir, c’est–à–dire que l’on s’efforce de repérer ce qui les accompagne habituellement dans le temps et dans l’espace : « C’est ainsi que le blé, le seigle, les fleurs de lys, de ronces, de châtaigniers ou de genêts servent de critères (pour le début du captage du naissain d’huîtres) en Morbihan, les fleurs de vigne à Arcachon, les lys de Saint-Joseph à Marennes, etc. » (*).

Dans une perspective « scientifique », on s’efforce de découvrir des liens entre des événements inexpliqués (et dont le comportement est donc peu prévisible) et des événements expliqués (au comportement du coup hautement prévisible [#]). On explique ainsi de proche en proche en bâtissant sur un acquis. Dans les termes de Stegmüller : on prend une notion pré–systématique et on l’explique entièrement en termes de concepts théoriques ; elle devient alors à son tour concept théorique et est désormais prête à être invoquée dans l’explication d’autres notions pré–systématiques (**).

La philosophie grecque analyse sous le nom de « logique modale », deux couples conceptuels d’usage général dans le discours sur l’avenir, substituts du couple vrai / faux qui n’est pas d’application pour les événements futurs (***) :
1. nécessaire / contingent (non-nécessaire) ; selon que des configurations en entraînent d’autres dans tous les cas ou seulement dans certains. La mécanique classique va concentrer son effort de modélisation sur le nécessaire, appelant la configuration antérieure la « cause » et la postérieure, son « effet ».
2. possible / impossible (non-possible) ; selon que certaines configurations sont compatibles ou non avec des configurations existantes. Leibniz caractérise le monde comme maximisant les « com-possibles », autorisant dans un état–de–fait le plus grand nombre de choses possibles simultanément. Stephen Jay Gould réactualisa la même conception en paléontologie : le domaine biologique manifeste la variabilité maximale (le plus grand nombre possible de types de vivants simultanés).

La « théorie des probabilités » proposera à partir du XVIè siècle une quantification « fine » de la logique modale, attribuant aux événements à venir un degré intermédiaire entre, d’une part, le nécessaire (de probabilité « 1 ») et le contingent et, d’autre part, entre le possible (le nécessaire comme le contingent sont tous deux des « possibles ») et l’impossible (de probabilité
« 0 »).

Le « calcul différentiel » qui apparaît au XVIIè siècle sera l’instrument de modélisation mathématique du nécessaire. Il contraint cependant la manière d’examiner le changement :

1. Tout changement peut être caractérisé comme une trajectoire, exprimée comme équation différentielle, dans un espace (par dérivations successives, on obtient les degrés de changement, d’abord la distance, puis la vitesse qui est la distance par unité de temps, puis l’accélération qui est la vitesse par unité de temps, etc.)
Au XVIIè siècle, quand débute la physique dynamique, l’espace en question n’est autre que l’espace « quotidien » à trois dimensions. Hermann Minkowski (1864–1909) montre à la fin du XIXè siècle que le temps est une quatrième dimension indissolublement liée aux trois dimensions de l’espace. Depuis, les savants envisagent les trajectoires d’objets étudiés en physique dans des
« espaces de configuration » dont le nombre de dimensions est défini uniquement par le nombre d’« influences » subies par l’objet.

2. La trajectoire décrite par une équation différentielle est le plus aisément déterminée quand l’objet décrit est « inerte », c’est-à-dire lorsque son comportement peut être défini entièrement comme un ensemble d’
« influences » qu’il subit (les paramètres de l’équation). Plus l’objet dispose d’une certaine « autonomie », plus il a tendance à influencer lui-même ce qui l’influence, plus le calcul devient difficile (d’où un glissement vers la cointégration qui ne privilégie pas l’action de l’un sur l’autre). Quand l’état d’un système dépend essentiellement de ses propres états antérieurs, on a affaire à un système dynamique discret.

3. La physique dynamique implique automatiquement une régression à l’infini : il doit exister un objet en amont dont le comportement est parfaitement « autonome » : il ne subit lui-même aucune influence. Aristote avait prévu cette contrainte quand il analysait les causes, il l’appela « moteur premier ». La possibilité existe évidemment, dans une perspective
« théologique » qui invoque des agents sur–naturels, de situer ce primus movens en–dehors de la nature et de l’identifier à la « volonté divine ».

(*) Marteil (sous la direction de), La conchyliculture française. Troisième partie : L’ostréiculture te la mytiliculture, Nantes : ISTPM, 1979, p. 340.

(**) Wolfgang Stegmüller, The Structure and Dynamics of Theories, New York : Springer-Verlag, 1976

(***) Voir mon Principes des systèmes intelligents, Paris : Masson, 1990, p. 134.

(#) De nombreux savants, dont Albert Einstein et René Thom, considèrent qu’un processus stochastique (« hasardeux ») n’est pas réellement
« expliqué » et requiert d’être examiné dans un espace contenant un certain nombre de dimensions supplémentaires.

0Shares
Recommandez par mail Recommandez par mail

Quels sont les types d’explications ?

Les explications sont soit « scientifiques » quand elles expliquent la nature en ses propres termes, soit « théologiques », quand elles évoquent pour expliquer la nature, des causes et des agents sur–naturels. Les explications scientifiques sont contraintes : chacune est réfutable de deux manières, soit en montrant un aspect de la nature qui contredit ce qu’elle avance, soit en montrant qu’elle invoque des causes et des agents sur–naturels. Les explications théologiques ne sont pas contraintes : toute contradiction peut être sauvée en postulant l’intervention d’un agent sur–naturel.

Les grands schémas explicatifs « scientifiques » appartiennent eux à quatre familles,

1. Les schémas « empiriques » pour qui le monde s’explique toujours localement soit en termes de connexions dans le temps : les phénomènes invoqués sont liés par la simultanéité, ils sont obligés d’apparaître en même temps (corrélation, covariation) soit en termes de connexions dans l’espace : si des phénomènes se ressemblent, c’est que leurs acteurs sont essentiellement les mêmes (ils partagent la même identité au sein des genres, des espèces).

2. Les schémas « réductionnistes » qui supposent des domaines réglés par leurs propres principes : le physique, le chimique, le biologique et le rationnel et où l’on explique l’un par l’autre, le chimique à partir du physique, le biologique à partir du chimique, le comportement rationnel à partir du biologique. Le réductionnisme est apparenté à l’épistémologie dite
« positiviste » qui privilégie comme mode d’explication la modélisation mathématique, en termes de nombres et de configurations. Le premier grand théoricien du positivisme en philosophie des sciences est Ernst Mach (1838–1916) dont le nom fut retenu comme celui de l’unité représentant la vitesse du son.

3. Les schémas « idéalistes » qui définissent la Raison comme principe essentiel et caractérisent le biologique, le chimique, le physique comme des formes de plus en plus dégradées du Rationnel. L’idéalisme est apparenté à l’épistémologie dite de « philosophie naturelle » qui privilégie l’explication déductive à partir de concepts et à l’aide de phrases, et en termes de qualités plutôt que de quantités. Les premiers grands représentants modernes de la philosophie naturelle sont J. W. von Goethe (1749–1832) et G. W. F. Hegel (1770–1831), le premier connu surtout comme romancier et poète, le second comme philosophe.

4. L’idéalisme platonicien pour qui les mathématiques ne constituent pas une méthode de modélisation du monde mais reflètent sa réalité profonde. « Pour Platon les choses participent aux nombres », écrit Aristote. Ce schéma implique que « Le monde sous tous ses aspects est la matérialisation des nombres », il s’apparente de cette manière aux explications théologiques. Davantage que positivistes ou tenants de la philosophie naturelle, un très grand nombre de savants sont en réalité des idéalistes platoniciens.

Les épistémologies « positiviste » et de « philosophie naturelle » sont

1. partiellement réversibles l’une dans l’autre. Les grandes théories physiques sont apparentées à l’une ou à l’autre : la mécanique classique et la mécanique quantique sont proches du « positivisme » dans la mesure où elles sont centrées sur des modèles mathématiques (Poincaré, dans La science et l’hypothèse les appelle « sciences constructives »), la thermodynamique et la relativité sont elles au contraire proches de la « philosophie naturelle » dans la mesure où elles constituent le développement d’un concept central (Poincaré les appelle « sciences à principe »). Le concept central de la thermodynamique est le degré d’organisation, équivalent à une quantité d’information, celui de la relativité est l’impossibilité de définir un cadre de référence absolu (*). La « sémiophysique » développée par René Thom à partir de sa théorie des catastrophes est elle aussi proche de la « philosophie naturelle »,

2. partiellement incompatibles. La gravitation relativiste a une explication géométrique, la gravitation quantique s’explique par le comportement de particules. Cette incompatibilité souligne que si les épistémologies
« positiviste » et de « philosophie naturelle » génèrent l’une et l’autre une explication complète, cohérente et satisfaisante du monde, les explications qui remontent des faits par la modélisation mathématique et celles qui descendent des concepts jusqu’aux faits de manière déductive, ne coïncident que partiellement, révélant l’irréductibilité ultime des mondes construits à partir de nombres et à partir de mots.

(*) Utilisant la distinction de Poincaré, Einstein caractérisait lui–même le style de sa démarche de « science à principe ». Dans une allocation en hommage à Max Planck, prononcée en 1918, il soulignait l’affinité entre la relativité et l’épistémologie de « philosophie naturelle » : « La tâche suprême du physicien est de parvenir à ces lois élémentaires universelles à partir desquelles le cosmos peut être bâti par déduction pure » (in Edward M. MacKinnon. Scientific Explanation and Atomic Physics, Chicago : Chicago University Press, 1982 : 307).

0Shares
Recommandez par mail Recommandez par mail

*Le seul Blog optimiste du monde occidental*