Archives de catégorie : Mathématiques

Les apprentis-sorciers

Ce texte est un « article presslib’ » (*)

Avec le recul qu’offriront les années, l’image qui émergera des politiques économiques mises en place aujourd’hui sera celle de mesures désespérées prises dans un immense désarroi. On observera ces leviers poussés ici ou là, d’abord dans un sens, puis dans l’autre, dans la plus grande expérimentation par essais et erreurs qu’ait connu l’humanité, mettant en jeu à chaque nouvelle tentative une somme plus colossale que celle mobilisée dans la précédente.

Quelqu’un dira : « La complexité de l’édifice qu’ils avaient bâti dépassait de loin leur entendement. Ils ne s’en rendaient pas compte, mais regardez les modèles dont ils pensaient qu’ils leur offraient une certaine maîtrise et à qui ils accordaient toute leur confiance ! Dans celui-ci, on suppose que la vitesse de circulation de la monnaie est constante « pour rendre le problème soluble ». Dans un autre, que le temps ne compte pas, assimilant du coup un marché à terme à un marché au comptant. Dans celui-ci encore, que l’on peut additionner reconnaissances de dette et billets de banque. Dans ce dernier, on suppose que les taux d’intérêt restent constants pour des durées indéfinies.

Pis encore, leur évaluation du risque était entièrement statique : fondée sur l’idée que chacun, individu ou entreprise, a son destin tout tracé et qu’on peut lui assigner une notation, un nombre magique, résumant ce destin.

Qu’espéraient-ils, les malheureux ? Quand les tensions de cette construction dont la complexité leur était inimaginable et de laquelle ils avaient perdu tout contrôle, ont commencé à la fissurer, ils n’ont su que faire et ont poussé sur tous les boutons à la fois. Ils ont tenté de noyer l’édifice branlant sous des tonnes d’argent frais, comme une habitation que l’on voudrait stabiliser en la coulant dans le béton. Ces efforts désordonnés n’ont fait que précipiter un effondrement dont l’inéluctabilité était certaine dès lors qu’ils ne comprenaient pas les forces qu’ils avaient mises en branle ».

(*) Un « article presslib’ » est libre de reproduction en tout ou en partie à condition que le présent alinéa soit reproduit à sa suite. Paul Jorion est un « journaliste presslib’ » qui vit exclusivement de ses droits d’auteurs et de vos contributions. Il pourra continuer d’écrire comme il le fait aujourd’hui tant que vous l’y aiderez. Votre soutien peut s’exprimer ici.

Partager :

Crise : Gestion des toxiques et relance. Une méthodologie ? par Pierre Lang

Pierre Lang m’a fait parvenir un nouveau texte, un codicille à son plaidoyer pour une approche belge de la question Fortis. Il s’agit cette fois d’une méthodologie en « boîte noire » permettant de contenir et de résoudre certains aspects de la crise financière en isolant les problèmes et en concentrant son attention sur les entrées et sorties. Certains d’entre vous penseront qu’il s’agit d’une « solution d’ingénieur » typique. C’est tout à fait ça mais, comme vous le savez déjà, sur le blog de Paul Jorion, les commentateurs ingénieurs règnent en maître ! (Une chose est sûre en tout cas : ce sont eux qui sauveront le monde).

Les schémas sont un peu comprimés, n’hésitez pas à les cliquer pour en voir une version plus lisible.

Crise : Gestion des toxiques et relance. Une méthodologie ?

Les ingénieurs financiers ont perdu le contrôle des modèles hybrides qu’ils ont conçus par insémination artificielle. Le 31 décembre 2008, par exemple, Reuters a titré une dépêche « Les Etats-Unis étaient mal équipés face à la crise, juge Henry Paulson ». Les grands argentiers du monde commencent à reconnaître leurs limites. Sur la table de son salon, Paul Jorion (que je remercie au passage de me donner la parole) anthropologue et sociologue réinvente en plus correcte la loi de l’offre et la demande. Un des piliers sur lesquels la chose économique est construite est mis en doute. Pas moins ! Habitant à l’autre bout d’Internet, je suis un ingénieur civil en construction dénué de toute formation et de tout « know how » en matière d’économie et de finance. Je m’imagine être parachuté par la pensée à un poste clé dans un bureau d’étude d’ingénierie financière (quel horrible terme !). Voici une méthode parmi d’autres que je pourrais utiliser dans un premier temps pour étudier la crise et une méthodologie éventuelle pour y remédier.



Continuer la lecture de Crise : Gestion des toxiques et relance. Une méthodologie ? par Pierre Lang

Partager :

A paraître : Comment la vérité et la réalité furent inventées

Comment la vérité et la réalité furent inventées paraîtra chez Gallimard dans la Bibliothèque des sciences humaines, une très belle collection. C’est l’aboutissement de vingt ans de réflexion sur ce qu’est une explication. En voici l’avant-propos.

L’ouvrage se veut une contribution à l’anthropologie des savoirs. J’y analyse la naissance des notions de « vérité » et de « réalité (objective) », notions qui nous semblent aller de soi, mais sont en réalité apparues à un moment précis de l’histoire de notre culture occidentale et sont totalement absentes du bagage conceptuel de certaines autres et de la culture chinoise traditionnelle en particulier. Les moments de leur émergence sont datés et relativement récents, mieux, leur apparition a donné lieu à des débats houleux et bien documentés entre partisans et adversaires de thèses antagonistes. La vérité est née dans la Grèce du IVe siècle avant Jésus-Christ, la réalité (objective), au XVIe siècle. L’une découle de l’autre : à partir du moment où s’est imposée l’idée d’une vérité, dire la vérité revenait à décrire la réalité telle qu’elle est.

Platon et Aristote, imposèrent la vérité comme le moyen de dépasser les objections sceptiques de leurs adversaires Sophistes. Dans le débat qui les opposa à ceux-ci, ils déplacèrent le critère de validité d’un discours, de l’absence d’auto-contradiction dans son développement, vers celui de la validité de ses propositions individuelles, transformant la notion jusque-là polémique du « vrai » en principe épistémologique de la « vérité ». La distinction établie à cette occasion par Aristote entre l’analytique qui permet la démonstration scientifique à partir de prémisses vraies et la dialectique qui permet l’argumentation juridique ou politique à partir de prémisses vraisemblables (les « opinions généralement admises »), autorisa un cessez-le-feu idéologique dans le débat avec les Sophistes et avec les courants sceptiques en général (l’analytique et la dialectique seraient ultérieurement regroupées sous l’appellation de logique).

Platon et Aristote opposèrent aux Sophistes l’existence d’un monde plus réel que celui de l’Existence-empirique dont les Sophistes avaient beau jeu de mettre en évidence qu’il s’agissait d’un univers d’illusion. Il leur fallait aussi distinguer ce monde de la réalité ultime inconnaissable : l’Être-donné des philosophes. Le néo-platonicien Proclus appela ce monde où la vérité trouve à se déployer : « discursion », et le situa au sein de l’esprit humain où il constitue un espace de modélisation dont l’outil de prédilection est mathématique.

Continuer la lecture de A paraître : Comment la vérité et la réalité furent inventées

Partager :

Claude Lévi-Strauss, penseur

Ce texte est un « article presslib’ » (*)

Claude Lévi-Strauss a aujourd’hui cent ans. J’ai assisté à ses cours au Collège de France de 1969 à 1971. J’ai été admis à son séminaire en 1970-1971. Lorsque je me suis présenté à la première séance de la saison 1971-1972, j’ai appris que mon nom ne figurait pas sur la liste de l’année nouvelle. Il faut dire que j’avais été bien impertinent et les preuves sont là : un film où vous verriez un jeune homme de vingt-quatre ans très sûr de lui, foulard au cou, interrompant avec impatience les errances de certains de ses aînés. Bah ! Lévi-Strauss n’était pas si respectueux lui-même : il avait l’art consommé d’écouter l’un de ses invités s’embrouiller dans ses explications et puis quand celui-ci était parvenu en bout de course, de lui demander : « Est-ce que vous avez voulu dire XY ? », et de restituer à l’intention du malheureux abasourdi ce qu’il tentait vainement depuis plus de dix ans de formuler clairement. Zap ! le rayon de la mort de l’intelligence absolue ! réduisant instantanément l’innocente victime en un monticule de cendres ! Comme chez Lacan, mais sans l’ironie qu’on trouvait chez celui-ci, l’auto-ironie surtout : le fin message que le scepticisme demeure l’horizon nécessaire et que nul ne peut se prendre complètement au sérieux. L’intelligence chez Lévi-Strauss est une chose au contraire éminemment sérieuse sur laquelle on ne transige pas : l’intelligence est en marche, silence dans les rangs !

Lacan et moi, nous nous sommes parlés quelques fois, et ce fut un jour assez tendu mais en une autre occasion, ce fut avec force clins d’œil. Mes conversations avec Lévi-Strauss furent toujours une toute autre affaire : comme deux joueurs de go, et comme si l’avenir du monde en dépendait. J’avais perdu en 1984 mon poste de jeune professeur à Cambridge. En 1990, j’avais derrière moi six ans de vains efforts pour retrouver un autre emploi dans ma branche et quand Jean-François Casanova m’offrit de travailler avec lui à la Banque de l’Union Européenne je lui en fus extrêmement reconnaissant. Il restait cependant une formalité à accomplir : informer Lévi-Strauss de ma défection et obtenir son aval. J’ignore si la chose lui paraissait pertinente ou non mais mon sentiment personnel était celui d’une trahison vis–à–vis de ma discipline et il comprit en tout cas parfaitement le sens de ma démarche. Nous eûmes à cette occasion notre plus longue conversation. Nous avons parlé de mathématiques et de physique essentiellement et je connus une fois de plus cet émerveillement qui m’avait transporté durant ses cours et ses séminaires : écouter avec recueillement le plus mathématicien des non-mathématiciens, l’homme qui répéta durant des dizaines d’années qu’il n’entendait rien aux mathématiques mais dont la moindre réflexion est d’une rigueur et d’une structure purement algébrique !

J’ai terminé il y a une dizaine de jours la rédaction de Comment la vérité et la réalité furent inventées. Ce n’est ni un ouvrage lévi-straussien, ni non plus foucaldien. Je l’ai néanmoins conçu comme se situant au point de rencontre de La pensée sauvage et de Les mots et les choses. Il est trop tard malheureusement pour que Foucault en soit informé mais heureusement encore temps, du moins je l’espère, pour que Claude Lévi-Strauss ait connaissance de l’existence d’un tel hommage infiniment respectueux.

(*) Un « article presslib’ » est libre de reproduction en tout ou en partie à condition que le présent alinéa soit reproduit à sa suite. Paul Jorion est un « journaliste presslib’ » qui vit exclusivement de ses droits d’auteurs et de vos contributions. Il pourra continuer d’écrire comme il le fait aujourd’hui tant que vous l’y aiderez. Votre soutien peut s’exprimer ici.

Partager :

Que font les mathématiciens ?

Ce texte est un « article presslib’ » (*)

C’est Aristote qui fixa la norme en matière de démonstration, distinguant trois familles de discours selon le statut de leurs prémisses pour ce qui touche à la vérité. La plus rigoureuse des trois est l’analytique dont les prémisses doivent être reconnues comme indiscutablement vraies, suivie de la dialectique dont les prémisses sont seulement « probables » : vraisemblables plutôt que vraies, et enfin de la rhétorique qui ne connaît pas de contraintes quant à la qualité des prémisses : le discours de fiction, par exemple, en relève. À l’intérieur même de chacune de ces trois familles, le Stagirite distingua les types d’argumentation utilisés en fonction de leur valeur probante.

Seule l’analytique relève de la science et c’est donc elle qui devrait seule présider à la démonstration mathématique. Or, durant les Temps Modernes d’abord et durant les Temps Contemporains ensuite, les mathématiciens recoururent toujours davantage dans la démonstration aux types d’argumentation les plus faibles quant à la valeur probante. On pourrait lire là sans doute le signe d’une simple décadence dans la manière dont les mathématiciens démontrent leurs théorèmes. Cette lecture n’est pas fausse mais demeure insuffisante parce qu’elle ignore le glissement « idéologique » qui rend compte du comment et du pourquoi de cette évolution. Ce glissement reflète en fait la conviction croissante des mathématiciens que leur tâche ne s’assimile pas à un processus d’invention mais à une authentique découverte, autrement dit, que leur tâche n’est pas de contribuer à la mise au point d’un outil mais de participer à l’exploration d’un monde. Si l’on souscrit à ce point de vue, la distinction se brouille entre la science, dont l’ambition est de décrire le monde de la Réalité-objective, et les mathématiques qui lui offrent le moyen de réaliser cette ambition. Et cette absence de distinction suppose à son tour, non seulement que la Réalité-objective est constituée des nombres et des relations que les objets mathématiques entretiennent entre eux, mais encore que la réalité ultime inconnaissable, l’Être-donné de la philosophie, est la source d’un tel codage. Or une telle conviction est avérée historiquement et, comme on le sait, caractérisa les disciples de Pythagore, au rang desquels se comptait Platon.

Si le mathématicien est un découvreur et non un inventeur, alors la manière dont il inculque la preuve importe peu puisqu’il décrit en réalité un monde spécifique, celui des nombres et de leurs relations, et peut se contenter d’en faire ressortir les qualités par une méthode apparentée à la méthode expérimentale : circonscrire une réalité et utiliser tous les moyens dont on dispose pour faire émerger une appréhension intuitive de ce qu’elle est ; dans cette perspective, seul compte le résultat, quelle que soit la manière dont on s’y est pris. Dans la démonstration du « second théorème » de Gödel, à l’aide duquel il prouve l’incomplétude de l’arithmétique, la faible valeur probante de certaines parties de sa démonstration n’est pas pertinente à ses yeux puisque sa tâche consiste selon lui à décrire un objet existant en soi. Ne se concevant nullement comme l’inventeur de mathématiques nouvelles mais comme un explorateur de l’univers des nombres et de leurs proportions singulières, il n’a que faire d’une méthodologie dont la rigueur seule garantirait le résultat auquel il aboutit.

Les points de vue des mathématiciens réalistes qui se conçoivent comme découvreurs et des mathématiciens antiréalistes qui s’imaginent inventeurs, peuvent être réconciliés si l’on offre de leur activité à tous une définition opérationnelle qui y voit la génération d’un produit culturel, c’est–à–dire relevant de la manière propre dont notre espèce offre une extension aux processus naturels. Ce produit culturel que les mathématiciens génèrent est une « physique virtuelle » permettant la modélisation du monde sensible de l’Existence-empirique en vue de sa prévisibilité à nos yeux. Cette physique virtuelle n’est ni contrainte de s’astreindre à la rigueur irréprochable des modes de preuve les plus exigeants aux yeux de la logique, ni ne doit s’imaginer décrire une Réalité-objective constituée d’essences mathématiques. La mise au point du calcul différentiel en offrit une illustration lumineuse.

(*) Un « article presslib’ » est libre de reproduction en tout ou en partie à condition que le présent alinéa soit reproduit à sa suite. Paul Jorion est un « journaliste presslib’ » qui vit exclusivement de ses droits d’auteurs et de vos contributions. Il pourra continuer d’écrire comme il le fait aujourd’hui tant que vous l’y aiderez. Votre soutien peut s’exprimer ici.

Partager :

Désarroi boursier

Ce texte est un « article presslib’ » (*)

Donc les banques centrales ont baissé leur taux directeur de manière coordonnée, et voici ce que cela a donné à la bourse de New York : – 2,06 %. La tendance a d’abord été positive, puis négative, puis…


© Dow Jones

En fait, la configuration d’aujourd’hui m’était familière et je suis allé la reproduire par la grâce d’Excel. Regardez ce deuxième graphique : je l’ai appelé non sans raison « Pile ou face », c’est un petit programme (*) en Visual Basic qui joue à pile ou face, qui gagne un franc quand c’est pile et perd un franc quand c’est face. Je l’ai fait jouer une fois toutes les six secondes entre 9 heures et 16 heures pour qu’il ait une « rugosité » comparable au graphique que je recopierais de Dow Jones.

Le bel ensemble des banques centrales n’a donc pas conduit les boursicoteurs à une conclusion très nette : ils ont joué la séance à pile ou face !

––––––––––––-
(*) La macro crée un fichier appelé « resultats.csv » qu’Excel vous permet d’ouvrir.

Sub PileOuFace()

Dim b As Integer
Dim n As Integer
Dim val As Single
Dim seed As Integer

seed = 0
Open « resultats.csv » For Output As #1

For n = 1 To 4200
— val = Rnd()
— If val > 0.5 Then
—— b = 1
— Else
—— b = -1
— End If

— seed = seed + b
— Print #1, n; « , »; seed

Next n

Close #1

End Sub

(*) Un « article presslib’ » est libre de reproduction en tout ou en partie à condition que le présent alinéa soit reproduit à sa suite. Paul Jorion est un « journaliste presslib’ » qui vit exclusivement de ses droits d’auteurs et de vos contributions. Il pourra continuer d’écrire comme il le fait aujourd’hui tant que vous l’y aiderez. Votre soutien peut s’exprimer ici.

Partager :

Les modèles financiers entre Charybde et Scylla

J’ai déjà eu l’occasion de parler des modèles utilisés en finance. J’ai évoqué par exemple dans Les modèles financiers “scientifiques”, et les autres, la distinction faite par la profession entre les modèles dits « scientifiques » et ceux dits de « norme sectorielle » dont les imperfections sont connues mais qui sont utilisés à défaut d’une alternative plus satisfaisante. J’ai souligné à propos de ces derniers, le risque « systémique » qui leur est attaché du fait que le mécanisme qu’ils supposent est incorrect et que leur utilisation simultanée par un grand nombre d’acteurs dispose du coup de la capacité à déclencher une catastrophe. On a ainsi pu observer récemment qu’un certain nombre de « hedge funds », ces fonds d’investissement spéculatifs, avaient connu des pertes équivalentes du fait que leurs modèles partageaient la même hypothèse injustifiée d’une absence de corrélation entre différents produits financiers que la détérioration de la finance avait précisément fait réagir à l’unisson. J’ai aussi rappelé que bien des modèles financiers accordent une confiance abusive à leur prétention de prévoir l’avenir.

Dans un autre billet, intitulé celui-ci Le talon d’Achille des agences de notation, j’attirais l’attention sur le fait que les méthodes utilisées par les agences de notation (telles Standard & Poor’s, Moody’s et Fitch) qui évaluent le crédit des compagnies et des instruments de dette qu’elles émettent, supposent que de nombreux processus se produisent de manière purement aléatoire alors qu’ils sont en réalité pseudo–cycliques et que les phases où l’application de ces méthodes est valide alternent avec d’autres où elles ne le sont pas. J’écrivais à propos de ces agences qu’

… elles accumulent les données pour une population spécifique sur des périodes les plus longues possibles et produisent à partir de là une note individualisée qui équivaut à une probabilité de défaillance, de prépaiement, etc. Le rendement serait relativement bon s’il s’agissait de prévoir des événements rares dont l’occurrence n’est pas influencée par un climat général, par exemple le risque que vous mettiez accidentellement le feu à votre logement, mais quand il s’agit d’évaluer, comme dans le cas du crédit immobilier, votre capacité à rembourser sur trente ans un prêt de 600.000 euros consenti pour l’achat d’une maison, ça ne marche pas très bien, parce que cette capacité ne dépend pas uniquement de vous mais aussi, et de manière déterminante, de ce que sera la conjoncture économique durant ces trente années à venir. Et c’est là que se situe le talon d’Achille des agences de notation.

Une illustration empruntée au texte des auteurs qui, à ma connaissance, furent les premiers à signaler cette faiblesse, Raynes et Rutledge (1), montre très clairement la propension de cette faiblesse à se transformer en erreur flagrante lorsque le processus n’est pas purement aléatoire ou est cyclique comme dans l’exemple représenté.
Raynes & Rutledge
Comme je viens de le rappeler, les notateurs collectent les séries chronologiques les plus longues possibles et, lorsque les observations peuvent se poursuivre, ajoutent consciencieusement les nouvelles à la suite des plus anciennes pour constituer une série chronologique. Si l’on a affaire à un processus cyclique, voyons ce que le diagramme révèle : tant que l’on en est au début de l’enregistrement des données, une extrapolation à partir des premières observations permet de bien « coller » à la réalité mais plus la série s’allonge, moins la prévision est bonne. Pire, alors que la qualité de la prévision se détériore manifestement, sur un plan mathématique, son rendement semble s’améliorer par le simple allongement de la série et du fait que la probabilité est définie comme un passage à la limite des fréquences observées. Notons que des modèles de prévision des défaillances beaucoup moins sophistiqués sur le plan mathématique, comme celui de Robert C. Merton, qui se contentent d’évaluer la solvabilité d’une compagnie en comparant son passif et son actif, ne présentent pas ce défaut.

Dans un article paru avant–hier dans Les Échos et intitulé La finance est anormale, Jean-Marc Vittori rappelle que le fameux modèle de Black et Scholes utilisé pour la valorisation des options financières repose sur la supposition que le processus sous–jacent présente une distribution dite « normale » : celle qui correspond à la fameuse représentation de la « courbe en cloche ». La distribution « normale » caractérise les processus aléatoires les plus sympathiques car les plus prévisibles, ce que j’appellerais l’« aléatoire apprivoisé » où, par exemple, le « mode », le cas le plus commun et la « médiane », la valeur qui laisse la moitié (moins elle) des données à sa droite et la moitié (moins elle) à sa gauche, coïncident tous deux avec la « moyenne », et autres propriétés accommodantes qui nous facilitent la vie.

Ceci dit, le fait que le modèle de Black et Scholes suppose une distribution « normale » est un péché véniel par rapport à une anomalie beaucoup plus sérieuse et qui aurait dû faire qu’il ne soit jamais utilisé avant que celle–ci ne soit éliminée : ce qu’on appelle le « sourire » – du fait que l’anomalie apparaît sous cette forme sur un diagramme – qui reflète le fait que la volatilité du produit sous–jacent à l’option présente des valeurs différentes selon le niveau de prix auquel l’option est située par rapport au prix actuel de produit. La volatilité du produit sous–jacent, c’est–à–dire la disposition de son prix à varier, n’a bien sûr qu’une seule valeur, et le phénomène du « sourire » révèle une erreur pure et simple au sein du modèle de Black et Scholes. J’ai eu l’occasion de montrer autrefois (en 1995) que l’erreur est due au fait qu’il manque une variable au modèle : le profit du « vendeur » de l’option, et que cette dimension manquante se trouve du coup agrégée avec la variable « flottante » appelée « volatilité », avec laquelle elle n’a bien entendu rien à voir (2).

Tout ceci nous rappelle à point nommé que la finance moderne navigue périlleusement entre le Charybde des modèles que nous savons incorrects et auxquels nous recourons quand même après les avoir qualifiés de « norme sectorielle » et le Scylla des modèles que nous imaginons corrects et qui ne le sont pas !

(1) Raynes, Sylvain & Rutledge, Ann, The Analysis of Structured Securities. Precise Risk Measurement and Capital Allocation, Oxford : Oxford University Press, 2003

(2) J’ai ré–expliqué cela dans l’un de mes billets récents en anglais The smile in Black and Scholes (Le sourire dans Black et Scholes)

Partager :

Audience du site

Certains d’entre vous – les commentateurs en particulier – sont certainement curieux de l’audience du site. Le blog en français fut créé le 28 février 2007. Le télécomptage fut installé le 20 juin. J’avais lu quelque part qu’un blog plafonne à la fin de la première année. Ce n’est pas ce que l’on observe ici : il y a une tendance linéaire à la hausse (pour les spécialistes : concordance de 97 % avec une droite).

Le premier diagramme montre la progression des accès au site (à multiplier par 2 et des poussières pour obtenir le nombre de pages vues) du 20 juin 2007 au 19 janvier 2008.

Audience 2007 - 2008

Le deuxième diagramme montre la progression du 1er janvier à hier, 24 janvier 2008. Les creux correspondent aux samedi et dimanche.

audience-2008.bmp

Partager :

Misère de la transitivité

Les sondages d’intentions de vote relatifs aux élections présidentielles américaines s’apparentent à l’objet mathématique appelé « tournoi » en théorie des groupes : de A et B, l’un des deux gagne et l’autre perd et chacun se verra opposé à chacun des autres. On s’attendrait à une transitivité de ces relations : si A bat B et que B bat C, alors, il est raisonnable de supposer que A battrait C. Si les choses étaient si simples, les saisons sportives deviendraient rapidement ennuyeuses car trop prévisibles, ce qui n’est bien entendu pas le cas.

Le fait que les élections présidentielles américaines soient à deux tours ajoute du piquant puisqu’une élimination aura lieu dans chaque camp, dont émergera un champion qui affrontera le champion du camp opposé. Comme les champions ne seront connus que dans le courant de l’année prochaine, rien n’empêche les sondeurs de présenter aux électeurs les différents cas de figure éventuels. Voici la situation au jour d’aujourd’hui (d’après RealClearPolitics) et les paradoxes qui résultent du peu d’intérêt que les électeurs inscrits semblent porter à maintenir la transitivité du tournoi.

L’ordre dans le camp démocrate est le suivant (qu’on peut interpréter comme 1 battrait 2 qui battrait 3. etc.)

1. Clinton
2. Obama
3. Edwards
4. Richardson
5. Biden

Et dans le camp républicain :

1. Giulani
2. Huckabee
3. Romney
4. McCain
5. Thompson
6. Paul

La liste démocrate apparaît aujourd’hui plus forte que la liste républicaine : leurs numéros 1. Clinton et 2. Obama battraient tous les deux le numéro 1 républicain, Giulani, Clinton par 4,4 % et Obama par 3 %. Jusqu’ici rien de surprenant. Maintenant pour la transitivité malmenée : McCain est numéro 4 sur la liste républicaine ; il serait donc battu à l’intérieur de son propre camp par 1. Giulani, 2. Huckabee et 3. Romney, mais il fait mieux que Giulani contre Clinton : il ne perdrait que par 1,7 % et par 1 % seulement opposé à Obama. McCain est loin dans la liste républicaine, ce qui ne l’empêche pas d’être le meilleur candidat républicain face aux deux meilleurs candidats démocrates. Plus étonnant encore, Edwards, numéro 3 sur la liste démocrate et qui serait donc battu par Clinton et par Obama à l’intérieur de son propre camp, eh bien, Edwards est le meilleur candidat face à McCain : il l’emporterait bien plus aisément contre lui, avec 5 % d’avance !

Partager :

Quel est le rapport entre la réalité et, d’une part les mots, d’autre part les formules mathématiques ?

Qu’il s’agisse des mots ou des objets mathématiques, le rapport entre eux et la réalité demeure mal compris en dépit de vingt-cinq siècles de réflexion sur le sujet par la science et par la philosophie.

Certains mots sont les étiquettes d’objets, mais ceci ne s’applique qu’aux mots qui ont un « référent » matériel évident, comme les pommes ou les poires ; un mot tel « néanmoins » n’est manifestement pas l’étiquette d’un objet existant dans le monde.

Le rapport entre les objets mathématiques et la réalité présente des aspects très divers :

1. L’arithmétique a un rapport « naturel » avec le monde. Les « nombres naturels » comme trois fonctionnent comme des étiquettes. Mais ce rapport
« naturel » est moins évident déjà pour les « nombres irrationnels » tels que racine carrée de deux qui est l’étiquette de la diagonale d’un carré de côté égal à un. Le rapport « naturel » a disparu avec les « nombres complexes » dont une partie est imaginaire : un multiple de la racine carrée de moins un – laquelle n’a plus de signification intuitive du tout. De même pour les
« nombres transfinis » qui sont des ensembles originaux au-delà du fini.

2. La géométrie a aussi un rapport « naturel » avec le monde : elle décrit les propriétés des proportions remarquables des grandeurs que l’on observe sur des surfaces et dans des volumes. La géométrie opère sur le continu comme l’arithmétique sur le discontinu. Quand l’arithmétique travaille sur le continu, elle montre ses limites et est obligée de recourir à l’approximation.

3. Certains mathématiciens ont cherché à purifier la mathématique de ce rapport « immédiat » avec la réalité : Cantor reformule le nombre comme un symbole abstrait engendré par une simple règle (« principe d’induction complète » de Poincaré), Frege accuse Hilbert de vouloir en faire de même avec la géométrie.

4. Le calcul différentiel, on l’a vu (Qu’est-il raisonnable de dire à propos de l’avenir ?), est né pour décrire des trajectoires, sinon, l’algèbre est surtout abstraite, elle est souvent comme une « logique » qui réglerait l’arithmétique et la géométrie.

5. Lorsque le rapport « naturel » d’un modèle mathématique à la réalité est perdu, le modèle ne retrouve de signification qu’une fois « interprété », c’est-à-dire lorsqu’on établit des « règles de correspondance » entre lui et des objets du monde réel : lorsque l’on dit « ce symbole représente la distance, celui-ci le temps, et celui-là la vitesse », on établit un « isomorphisme », une correspondance de configuration et de « métrique », de grandeurs, entre un modèle mathématique et son « interprétation » dans le monde.

Dans la pensée traditionnelle chinoise, le « caractère » représentant quelque chose fait partie de cette chose au même titre que ses autres propriétés : le mot est un attribut de la chose elle-même.

6. Le nombre dans la conception que s’en fait l’« idéaliste platonicien » est un peu comme le caractère en Chine : le nombre qui caractérise la chose est un aspect de la chose elle-même, et le mathématicien n’invente pas les mathématiques, il les découvre, semblable à un explorateur qui découvre un continent.

7. Chaque nouveau « système de nombres » a été créé pour résoudre une impasse au sein des mathématiques, ce que les philosophes appellent une
« impossibilité transitionnelle ».

8. Résoudre une telle impasse est une entreprise très différente selon que l’on conçoit les mathématiques comme « découvertes » ou « inventées ». Le fameux théorème d’« incomplétude de l’arithmétique » de Gödel a vu s’affronter mathématiciens, logiciens et philosophes autour de la question : le théorème est-il une découverte ou tour de passe-passe ? (*)

Une conception qui contourne ces difficultés, c’est celle que je défends, qui replace l’Homme pleinement au sein de l’évolution naturelle du monde, et qui considère que les mots et les objets mathématiques ne sont ni découverts ni inventés mais qu’ils se créent et que le lieu de leur création est l’esprit humain.

(*) Voir mon texte « Le mathématicien et sa magie : théorème de Gödel et anthropologie des savoirs » ; sur mon site Internet et le blog que je lui ai consacré : Le loustic qui s’est convaincu qu’Einstein était bête.

Partager :

Les modèles financiers « scientifiques », et les autres

En fait, les choses ne se sont pas mal passées, comme quoi on s’affole souvent pour pas grand’ chose ! Le marché américain avait joué au yo–yo toute la journée pour regagner 1 % en fin de séance sur une bonne nouvelle. Je cite ici le Wall Street Journal à propos du retournement de la tendance « dû en grande partie au soulagement lorsqu’il s’avéra que la rumeur d’une crise [mise en faillite imminente] du promoteur immobilier Beazer Homes était sans fondement ». L’action de Beazer avait perdu jusqu’à 40 % de sa valeur à un moment de la journée, pour finir seulement à – 21 %. En cette période agitée, on est souvent obligé de se contenter des seules bonnes nouvelles qu’on trouve.

Ceci dit, je vais quand même commencer à vous parler des modèles financiers. Je ne crois pas prendre un risque énorme.

Les organismes de tutelle des compagnies financières autorisent deux types de modèles : ceux dont la scientificité est prouvée et ceux qui correspondent à une « norme industrielle » (industry standard). Remarque préliminaire : si la première catégorie avait suffi, on n’aurait pas eu besoin de la seconde : il y a donc des modèles sans scientificité et dont la garantie ne repose que sur le consensus de l’industrie financière.

Je vais d’abord dire un mot sur les modèles « scientifiques » et pour tempérer l’enthousiasme que je décèle, je vais commencer par préciser que les modèles financiers « scientifiques » se composent en général de multiples parties dont le degré de scientificité est lui très variable. Un modèle typique comprendra par exemple cinq ou six composantes atteignant un degré de précision qui permettra l’usage de cinq décimales, et une dernière dont l’équivalent est le geste bien connu consistant à mouiller son doigt et à le lever pour prendre le vent. On en trouve un bon exemple dans le modèle dit de Black et Scholes utilisé pour évaluer le prix d’une option, où la « volatilité implicite », souvent hurlée d’un bout à l’autre d’une salle de marché, est une variable de ce genre, dont – vu son mode de transmission – la valeur ne peut prendre qu’un très faible nombre de décimales.

La précision effective d’un tel modèle « scientifique » dans son ensemble est bien entendu celle de sa composante la plus grossière, fait généralement négligé par ses utilisateurs. L’image qui me vient à l’esprit, est celle que François Jacob utilisait à propos du cerveau humain : un moteur à réaction greffé sur une charrette à bras.

En principe, lorsqu’existe un modèle « scientifique », celui–ci devrait prévaloir sur tout concurrent correspondant à une « norme industrielle ». Ce qui n’est cependant pas toujours le cas. Ainsi, dans un grand nombre de processus en finance, la meilleure prévision possible d’un prix est la dernière cotation connue. La chose peut être établie mathématiquement dans certains cas ; dans beaucoup d’autres elle peut être vérifiée par l’analyse de séries de données historiques. Il ne s’agit certainement pas d’une prévision impressionnante par son originalité mais c’est bien celle qui minimise l’erreur et est donc la seule authentiquement « scientifique ». Or cette prévision n’est jamais utilisée en finance et la « norme industrielle » est toujours une formule très compliquée qui produit un chiffre différent ; le raisonnement sous–jacent est, à mon sens, que si quelqu’un est grassement payé en tant qu’ingénieur financier, il doit pouvoir faire mieux qu’affirmer que le prix de demain sera probablement le même qu’aujourd’hui.

Un bon exemple en est fourni par les prévisions relatives à la courbe des taux, qui représente le taux flottant correspondant à un prêt à trois mois, six mois, un an, cinq ans, dix ans, etc. et dont, comme je viens de le dire, la meilleure prévision possible est qu’elle se maintiendra telle quelle. La « norme industrielle », au contraire, est qu’on peut utiliser comme prévision pour la courbe des taux, la courbe des taux à terme.

La courbe des taux à terme est une courbe qui montre ce qu’il en coûte aujourd’hui d’emprunter à terme, c’est–à–dire plus tard. Je vais chez le banquier et je lui dis : « J’aurai besoin d’un million dans un an que je vous emprunterais pour trois ans. Pouvons–nous en fixer le taux maintenant ? » Si le banquier dit oui, vous aurez fixé le taux à terme pour trois ans, dans un an. Ce que le taux à terme exprime est ce qu’il en coûte aujourd’hui d’emprunter pour trois ans dans un an ; la « norme industrielle » consiste à dire que la courbe des taux à terme exprime « ce qu’il en coûtera d’emprunter pour trois ans dans un an », ce qui est tout simplement faux. La distinction est subtile mais la confusion réside dans le fait qu’il ne s’agit pas d’un taux fixé dans l’avenir mais d’un taux fixé aujourd’hui « à propos » de l’avenir et sa capacité de prédire celui–ci est en conséquence, tout simplement nulle.

Les deux types de modèles, « scientifique » et de « norme industrielle » diffèrent pour ce qui touche au risque systémique qu’ils présentent, c’est–à–dire quant au risque d’effet boule de neige qu’ils constituent pour les marchés financiers. Les modèles « scientifiques » ne présentent pas de risque systémique pour la raison suivante : soit ils sont proprement scientifiques et sont donc exacts, soit ils sont « scientifiques » au titre de ceux que j’ai évoqués précédemment où différentes composantes présentent des degrés divers de précision, et chacun se trompant différemment, aucun effet global n’en résultera. Un risque systémique réel existe cependant dans l’usage des modèles dits de « norme industrielle ». Ils ne sont pas scientifiques et par conséquent se trompent, mais du fait qu’ils ont été adoptés par l’ensemble de la branche, tous ses utilisateurs se trompent exactement de la même manière. Le jour viendra où chacun de ces utilisateurs posera au même moment le même geste – qui n’est pas celui qui conviendrait – et un effet global catastrophique en résultera.

Partager :

Le loustic qui s’est convaincu qu’Einstein était bête

Je me suis retrouvé quelquefois dans la situation embarrassante d’être abordé par un loustic qui vous prie de lui prêter attention : il a découvert une erreur fondamentale dans la théorie de la relativité (ou, au choix, la mécanique quantique, la génétique, etc.) il tente d’alerter le monde mais les autorités en place se coalisent contre lui, ayant partie liée avec les faussaires.

Je n’ai jamais éconduit ce genre de personnage – de la même manière que j’ai prêté une oreille attentive aux Témoins de Jéhovah (ou au choix, Scientologues, Haré Krichna, etc.) – malheureusement l’expérience s’est toujours révélée également décevante car le loustic en question ne maîtrise en réalité jamais son sujet : l’erreur fondamentale qu’il a prétendument débusquée n’existe que pour lui seul et elle n’est en réalité qu’un artefact de son ignorance.

Je ne mentionne cette expérience que parce qu’aux yeux de certains je me suis trouvé moi–même parfois dans la position du loustic.

Mes intérêts sont éclectiques et je n’ai jamais écarté une question importante parce qu’elle se trouvait a priori en–dehors de mon domaine d’expertise. La différence entre le loustic et moi–même – telle est du moins la manière dont je l’envisage – est que j’ai chaque fois retroussé mes manches et ne me suis prononcé sur une question que lorsque j’estimais avoir acquis une expertise du domaine équivalente à celle de ses spécialistes, ce qui m’a toujours pris – n’en déplaise à certains. – le même nombre d’années qu’à tout un chacun. Le seul aspect surprenant alors serait l’inclination qui est la mienne à retrousser mes manches de cette façon, un nombre considérable de fois.

Ce qui a attiré mon attention sur la démonstration du « second théorème » de Gödel, celui consacré à l’incomplétude de l’arithmétique, c’est sa complication. Devant cette complication, on a bien sûr le choix, soit y voir un obstacle insurmontable, soit le prendre au contraire comme un défi. J’entrepris de lire les textes. Le tournant pour moi fut la lecture du livre consacré par Ladrière au théorème et à sa réception (*). Dawson, qui s’est intéressé en particulier à la manière dont Wittgenstein concevait le théorème, mit en évidence que si certains de ceux qui à l’époque (1931) le dénoncèrent comme une imposture n’avaient pas compris sa démonstration, d’autres, qui le saluèrent comme une révolution, n’y avaient pas compris davantage, sinon encore bien moins (**). Ceci me convainquit que bien peu nombreux avaient dû être – même parmi les mathématiciens – ceux qui avaient suivi d’un bout à l’autre les étapes de la démonstration. Et c’est cela qui fit pencher la balance pour moi du côté du défi.

Le capital que vous constituent au fil des ans des intérêts éclectiques, c’est une impressionnante boîte à outils. J’y disposais, entre autres, d’un bon aperçu historique de ce qu’on appelle les modes d’inculcation de la preuve, aussi bien en mathématiques qu’en logique. J’avais exploré les formes de la démonstration telles qu’Aristote les conçoit pour l’analytique (lorsque l’on part de prémisses certaines) comme pour la dialectique (lorsque les prémisses ne sont que plausibles) ; je m’étais intéressé à la logique des Stoïciens et à celle des Mégariques, j’avais enfin étudié la logique scolastique à laquelle les logiciens de Port–Royal mirent un point final et dont ils dressèrent alors le bilan.

Quand j’ouvris la boîte de Pandore de la démonstration du second théorème de Gödel, j’éprouvai la même consternation qui dut saisir Spirou découvrant que la machine qui devait mettre le feu à l’atmosphère et s’était écrasée sans gloire dans un champ, révèle dans ses flancs éventrés un amas de boîtes de conserve usagées. Je découvrais plus précisément un assemblage de chaînons combinant les modes de preuve parmi les plus faibles qui soient : de l’induction fondée sur un exemple unique à la preuve par l’absurde qui établit la vérité d’une proposition par l’exclusion de sa contradictoire, c’est–à–dire, en réalité, en désespoir de cause.

Surtout, la démonstration de Gödel culminait dans le tour de passe–passe d’une proposition arithmétique en qui en est codée une autre, celle–ci méta–mathématique affirmant quelque chose quant à la démonstrabilité de la première. La naïveté de Gödel – il faut bien appeler un chat, un chat – consiste à imaginer qu’il existe un lien consubstantiel entre la première proposition et celle codée en son sein, négligeant que si les propositions arithmétiques avaient la capacité de parler d’elles–mêmes, elles disposeraient également de celle de mentir à leur propre sujet.

Je supposai que Gödel n’avait pas été entièrement dupe de son artificce et le parallèle qui s’imposa à moi fut celui du chaman kwakiutl Quesalid dont parla Franz Boas et dont Lévi–Strauss analysa le comportement qui, bien que trompant délibérément son public, se convainquait cependant « qu’il devait bien y avoir quelque chose » dans ses propres astuces.
Lévi–Strauss avait intitulé son texte « Le sorcier et sa magie » (***), j’appelai le mien, « Le mathématicien et sa magie » (****). Je le proposai à la revue L’Homme qui m’a très souvent publié et qui l’accepta aussitôt. M’enquérant quelques mois plus tard de sa date de publication, j’appris que le comité de rédaction était revenu sur sa décision sans juger bon de m’en avertir.

Je n’ai jamais su ce qui s’était réellement passé. Je suppose que le second théorème de Gödel fut considérée comme une institution trop prestigieuse pour qu’une revue d’anthropologie attente à sa réputation, le doute dut s’installer que j’étais peut–être moi–même l’un de ces loustics qui découvrent des erreurs grossières chez Einstein.

Je publiai le texte sur mon site Internet. Cela donna lieu à plusieurs débats passionnants avec Jean Lassègue et Bruno Marchal. Que peut–on en réalité demander d’autre ?

(*) Ladrière, Jean, Les limitations internes des formalismes. Étude sur la signification du théorème de Gödel et des théorèmes apparentés dans la théorie des fondements des mathématiques, (Paris : Gauthier-Villars 1957), Paris : Jacques Gabay, 1992
(**) Dawson, John W. Jr., « The reception of Gödel’s Incompleteness
Theorems », in S.G. Shanker (ed.), Gödel’s Theorem in Focus, London: Croom Helm, 1988 : 74-95
(***) Lévi-Strauss, Claude, Anthropologie structurale, Paris: Plon, 1958
(****) « Le mathématicien et sa magie : Théorème de Gödel et anthropologie des savoirs », sur mon site Internet

Partager :