Archives de catégorie : Mathématiques

Les modèles financiers entre Charybde et Scylla

J’ai déjà eu l’occasion de parler des modèles utilisés en finance. J’ai évoqué par exemple dans Les modèles financiers “scientifiques”, et les autres, la distinction faite par la profession entre les modèles dits « scientifiques » et ceux dits de « norme sectorielle » dont les imperfections sont connues mais qui sont utilisés à défaut d’une alternative plus satisfaisante. J’ai souligné à propos de ces derniers, le risque « systémique » qui leur est attaché du fait que le mécanisme qu’ils supposent est incorrect et que leur utilisation simultanée par un grand nombre d’acteurs dispose du coup de la capacité à déclencher une catastrophe. On a ainsi pu observer récemment qu’un certain nombre de « hedge funds », ces fonds d’investissement spéculatifs, avaient connu des pertes équivalentes du fait que leurs modèles partageaient la même hypothèse injustifiée d’une absence de corrélation entre différents produits financiers que la détérioration de la finance avait précisément fait réagir à l’unisson. J’ai aussi rappelé que bien des modèles financiers accordent une confiance abusive à leur prétention de prévoir l’avenir.

Dans un autre billet, intitulé celui-ci Le talon d’Achille des agences de notation, j’attirais l’attention sur le fait que les méthodes utilisées par les agences de notation (telles Standard & Poor’s, Moody’s et Fitch) qui évaluent le crédit des compagnies et des instruments de dette qu’elles émettent, supposent que de nombreux processus se produisent de manière purement aléatoire alors qu’ils sont en réalité pseudo–cycliques et que les phases où l’application de ces méthodes est valide alternent avec d’autres où elles ne le sont pas. J’écrivais à propos de ces agences qu’

… elles accumulent les données pour une population spécifique sur des périodes les plus longues possibles et produisent à partir de là une note individualisée qui équivaut à une probabilité de défaillance, de prépaiement, etc. Le rendement serait relativement bon s’il s’agissait de prévoir des événements rares dont l’occurrence n’est pas influencée par un climat général, par exemple le risque que vous mettiez accidentellement le feu à votre logement, mais quand il s’agit d’évaluer, comme dans le cas du crédit immobilier, votre capacité à rembourser sur trente ans un prêt de 600.000 euros consenti pour l’achat d’une maison, ça ne marche pas très bien, parce que cette capacité ne dépend pas uniquement de vous mais aussi, et de manière déterminante, de ce que sera la conjoncture économique durant ces trente années à venir. Et c’est là que se situe le talon d’Achille des agences de notation.

Une illustration empruntée au texte des auteurs qui, à ma connaissance, furent les premiers à signaler cette faiblesse, Raynes et Rutledge (1), montre très clairement la propension de cette faiblesse à se transformer en erreur flagrante lorsque le processus n’est pas purement aléatoire ou est cyclique comme dans l’exemple représenté.
Raynes & Rutledge
Comme je viens de le rappeler, les notateurs collectent les séries chronologiques les plus longues possibles et, lorsque les observations peuvent se poursuivre, ajoutent consciencieusement les nouvelles à la suite des plus anciennes pour constituer une série chronologique. Si l’on a affaire à un processus cyclique, voyons ce que le diagramme révèle : tant que l’on en est au début de l’enregistrement des données, une extrapolation à partir des premières observations permet de bien « coller » à la réalité mais plus la série s’allonge, moins la prévision est bonne. Pire, alors que la qualité de la prévision se détériore manifestement, sur un plan mathématique, son rendement semble s’améliorer par le simple allongement de la série et du fait que la probabilité est définie comme un passage à la limite des fréquences observées. Notons que des modèles de prévision des défaillances beaucoup moins sophistiqués sur le plan mathématique, comme celui de Robert C. Merton, qui se contentent d’évaluer la solvabilité d’une compagnie en comparant son passif et son actif, ne présentent pas ce défaut.

Dans un article paru avant–hier dans Les Échos et intitulé La finance est anormale, Jean-Marc Vittori rappelle que le fameux modèle de Black et Scholes utilisé pour la valorisation des options financières repose sur la supposition que le processus sous–jacent présente une distribution dite « normale » : celle qui correspond à la fameuse représentation de la « courbe en cloche ». La distribution « normale » caractérise les processus aléatoires les plus sympathiques car les plus prévisibles, ce que j’appellerais l’« aléatoire apprivoisé » où, par exemple, le « mode », le cas le plus commun et la « médiane », la valeur qui laisse la moitié (moins elle) des données à sa droite et la moitié (moins elle) à sa gauche, coïncident tous deux avec la « moyenne », et autres propriétés accommodantes qui nous facilitent la vie.

Ceci dit, le fait que le modèle de Black et Scholes suppose une distribution « normale » est un péché véniel par rapport à une anomalie beaucoup plus sérieuse et qui aurait dû faire qu’il ne soit jamais utilisé avant que celle–ci ne soit éliminée : ce qu’on appelle le « sourire » – du fait que l’anomalie apparaît sous cette forme sur un diagramme – qui reflète le fait que la volatilité du produit sous–jacent à l’option présente des valeurs différentes selon le niveau de prix auquel l’option est située par rapport au prix actuel de produit. La volatilité du produit sous–jacent, c’est–à–dire la disposition de son prix à varier, n’a bien sûr qu’une seule valeur, et le phénomène du « sourire » révèle une erreur pure et simple au sein du modèle de Black et Scholes. J’ai eu l’occasion de montrer autrefois (en 1995) que l’erreur est due au fait qu’il manque une variable au modèle : le profit du « vendeur » de l’option, et que cette dimension manquante se trouve du coup agrégée avec la variable « flottante » appelée « volatilité », avec laquelle elle n’a bien entendu rien à voir (2).

Tout ceci nous rappelle à point nommé que la finance moderne navigue périlleusement entre le Charybde des modèles que nous savons incorrects et auxquels nous recourons quand même après les avoir qualifiés de « norme sectorielle » et le Scylla des modèles que nous imaginons corrects et qui ne le sont pas !

(1) Raynes, Sylvain & Rutledge, Ann, The Analysis of Structured Securities. Precise Risk Measurement and Capital Allocation, Oxford : Oxford University Press, 2003

(2) J’ai ré–expliqué cela dans l’un de mes billets récents en anglais The smile in Black and Scholes (Le sourire dans Black et Scholes)

Partager :
Recommandez par mail Recommandez par mail

Audience du site

Certains d’entre vous – les commentateurs en particulier – sont certainement curieux de l’audience du site. Le blog en français fut créé le 28 février 2007. Le télécomptage fut installé le 20 juin. J’avais lu quelque part qu’un blog plafonne à la fin de la première année. Ce n’est pas ce que l’on observe ici : il y a une tendance linéaire à la hausse (pour les spécialistes : concordance de 97 % avec une droite).

Le premier diagramme montre la progression des accès au site (à multiplier par 2 et des poussières pour obtenir le nombre de pages vues) du 20 juin 2007 au 19 janvier 2008.

Audience 2007 - 2008

Le deuxième diagramme montre la progression du 1er janvier à hier, 24 janvier 2008. Les creux correspondent aux samedi et dimanche.

audience-2008.bmp

Partager :
Recommandez par mail Recommandez par mail

Misère de la transitivité

Les sondages d’intentions de vote relatifs aux élections présidentielles américaines s’apparentent à l’objet mathématique appelé « tournoi » en théorie des groupes : de A et B, l’un des deux gagne et l’autre perd et chacun se verra opposé à chacun des autres. On s’attendrait à une transitivité de ces relations : si A bat B et que B bat C, alors, il est raisonnable de supposer que A battrait C. Si les choses étaient si simples, les saisons sportives deviendraient rapidement ennuyeuses car trop prévisibles, ce qui n’est bien entendu pas le cas.

Le fait que les élections présidentielles américaines soient à deux tours ajoute du piquant puisqu’une élimination aura lieu dans chaque camp, dont émergera un champion qui affrontera le champion du camp opposé. Comme les champions ne seront connus que dans le courant de l’année prochaine, rien n’empêche les sondeurs de présenter aux électeurs les différents cas de figure éventuels. Voici la situation au jour d’aujourd’hui (d’après RealClearPolitics) et les paradoxes qui résultent du peu d’intérêt que les électeurs inscrits semblent porter à maintenir la transitivité du tournoi.

L’ordre dans le camp démocrate est le suivant (qu’on peut interpréter comme 1 battrait 2 qui battrait 3. etc.)

1. Clinton
2. Obama
3. Edwards
4. Richardson
5. Biden

Et dans le camp républicain :

1. Giulani
2. Huckabee
3. Romney
4. McCain
5. Thompson
6. Paul

La liste démocrate apparaît aujourd’hui plus forte que la liste républicaine : leurs numéros 1. Clinton et 2. Obama battraient tous les deux le numéro 1 républicain, Giulani, Clinton par 4,4 % et Obama par 3 %. Jusqu’ici rien de surprenant. Maintenant pour la transitivité malmenée : McCain est numéro 4 sur la liste républicaine ; il serait donc battu à l’intérieur de son propre camp par 1. Giulani, 2. Huckabee et 3. Romney, mais il fait mieux que Giulani contre Clinton : il ne perdrait que par 1,7 % et par 1 % seulement opposé à Obama. McCain est loin dans la liste républicaine, ce qui ne l’empêche pas d’être le meilleur candidat républicain face aux deux meilleurs candidats démocrates. Plus étonnant encore, Edwards, numéro 3 sur la liste démocrate et qui serait donc battu par Clinton et par Obama à l’intérieur de son propre camp, eh bien, Edwards est le meilleur candidat face à McCain : il l’emporterait bien plus aisément contre lui, avec 5 % d’avance !

Partager :
Recommandez par mail Recommandez par mail

Quel est le rapport entre la réalité et, d’une part les mots, d’autre part les formules mathématiques ?

Qu’il s’agisse des mots ou des objets mathématiques, le rapport entre eux et la réalité demeure mal compris en dépit de vingt-cinq siècles de réflexion sur le sujet par la science et par la philosophie.

Certains mots sont les étiquettes d’objets, mais ceci ne s’applique qu’aux mots qui ont un « référent » matériel évident, comme les pommes ou les poires ; un mot tel « néanmoins » n’est manifestement pas l’étiquette d’un objet existant dans le monde.

Le rapport entre les objets mathématiques et la réalité présente des aspects très divers :

1. L’arithmétique a un rapport « naturel » avec le monde. Les « nombres naturels » comme trois fonctionnent comme des étiquettes. Mais ce rapport
« naturel » est moins évident déjà pour les « nombres irrationnels » tels que racine carrée de deux qui est l’étiquette de la diagonale d’un carré de côté égal à un. Le rapport « naturel » a disparu avec les « nombres complexes » dont une partie est imaginaire : un multiple de la racine carrée de moins un – laquelle n’a plus de signification intuitive du tout. De même pour les
« nombres transfinis » qui sont des ensembles originaux au-delà du fini.

2. La géométrie a aussi un rapport « naturel » avec le monde : elle décrit les propriétés des proportions remarquables des grandeurs que l’on observe sur des surfaces et dans des volumes. La géométrie opère sur le continu comme l’arithmétique sur le discontinu. Quand l’arithmétique travaille sur le continu, elle montre ses limites et est obligée de recourir à l’approximation.

3. Certains mathématiciens ont cherché à purifier la mathématique de ce rapport « immédiat » avec la réalité : Cantor reformule le nombre comme un symbole abstrait engendré par une simple règle (« principe d’induction complète » de Poincaré), Frege accuse Hilbert de vouloir en faire de même avec la géométrie.

4. Le calcul différentiel, on l’a vu (Qu’est-il raisonnable de dire à propos de l’avenir ?), est né pour décrire des trajectoires, sinon, l’algèbre est surtout abstraite, elle est souvent comme une « logique » qui réglerait l’arithmétique et la géométrie.

5. Lorsque le rapport « naturel » d’un modèle mathématique à la réalité est perdu, le modèle ne retrouve de signification qu’une fois « interprété », c’est-à-dire lorsqu’on établit des « règles de correspondance » entre lui et des objets du monde réel : lorsque l’on dit « ce symbole représente la distance, celui-ci le temps, et celui-là la vitesse », on établit un « isomorphisme », une correspondance de configuration et de « métrique », de grandeurs, entre un modèle mathématique et son « interprétation » dans le monde.

Dans la pensée traditionnelle chinoise, le « caractère » représentant quelque chose fait partie de cette chose au même titre que ses autres propriétés : le mot est un attribut de la chose elle-même.

6. Le nombre dans la conception que s’en fait l’« idéaliste platonicien » est un peu comme le caractère en Chine : le nombre qui caractérise la chose est un aspect de la chose elle-même, et le mathématicien n’invente pas les mathématiques, il les découvre, semblable à un explorateur qui découvre un continent.

7. Chaque nouveau « système de nombres » a été créé pour résoudre une impasse au sein des mathématiques, ce que les philosophes appellent une
« impossibilité transitionnelle ».

8. Résoudre une telle impasse est une entreprise très différente selon que l’on conçoit les mathématiques comme « découvertes » ou « inventées ». Le fameux théorème d’« incomplétude de l’arithmétique » de Gödel a vu s’affronter mathématiciens, logiciens et philosophes autour de la question : le théorème est-il une découverte ou tour de passe-passe ? (*)

Une conception qui contourne ces difficultés, c’est celle que je défends, qui replace l’Homme pleinement au sein de l’évolution naturelle du monde, et qui considère que les mots et les objets mathématiques ne sont ni découverts ni inventés mais qu’ils se créent et que le lieu de leur création est l’esprit humain.

(*) Voir mon texte « Le mathématicien et sa magie : théorème de Gödel et anthropologie des savoirs » ; sur mon site Internet et le blog que je lui ai consacré : Le loustic qui s’est convaincu qu’Einstein était bête.

Partager :
Recommandez par mail Recommandez par mail

Les modèles financiers « scientifiques », et les autres

En fait, les choses ne se sont pas mal passées, comme quoi on s’affole souvent pour pas grand’ chose ! Le marché américain avait joué au yo–yo toute la journée pour regagner 1 % en fin de séance sur une bonne nouvelle. Je cite ici le Wall Street Journal à propos du retournement de la tendance « dû en grande partie au soulagement lorsqu’il s’avéra que la rumeur d’une crise [mise en faillite imminente] du promoteur immobilier Beazer Homes était sans fondement ». L’action de Beazer avait perdu jusqu’à 40 % de sa valeur à un moment de la journée, pour finir seulement à – 21 %. En cette période agitée, on est souvent obligé de se contenter des seules bonnes nouvelles qu’on trouve.

Ceci dit, je vais quand même commencer à vous parler des modèles financiers. Je ne crois pas prendre un risque énorme.

Les organismes de tutelle des compagnies financières autorisent deux types de modèles : ceux dont la scientificité est prouvée et ceux qui correspondent à une « norme industrielle » (industry standard). Remarque préliminaire : si la première catégorie avait suffi, on n’aurait pas eu besoin de la seconde : il y a donc des modèles sans scientificité et dont la garantie ne repose que sur le consensus de l’industrie financière.

Je vais d’abord dire un mot sur les modèles « scientifiques » et pour tempérer l’enthousiasme que je décèle, je vais commencer par préciser que les modèles financiers « scientifiques » se composent en général de multiples parties dont le degré de scientificité est lui très variable. Un modèle typique comprendra par exemple cinq ou six composantes atteignant un degré de précision qui permettra l’usage de cinq décimales, et une dernière dont l’équivalent est le geste bien connu consistant à mouiller son doigt et à le lever pour prendre le vent. On en trouve un bon exemple dans le modèle dit de Black et Scholes utilisé pour évaluer le prix d’une option, où la « volatilité implicite », souvent hurlée d’un bout à l’autre d’une salle de marché, est une variable de ce genre, dont – vu son mode de transmission – la valeur ne peut prendre qu’un très faible nombre de décimales.

La précision effective d’un tel modèle « scientifique » dans son ensemble est bien entendu celle de sa composante la plus grossière, fait généralement négligé par ses utilisateurs. L’image qui me vient à l’esprit, est celle que François Jacob utilisait à propos du cerveau humain : un moteur à réaction greffé sur une charrette à bras.

En principe, lorsqu’existe un modèle « scientifique », celui–ci devrait prévaloir sur tout concurrent correspondant à une « norme industrielle ». Ce qui n’est cependant pas toujours le cas. Ainsi, dans un grand nombre de processus en finance, la meilleure prévision possible d’un prix est la dernière cotation connue. La chose peut être établie mathématiquement dans certains cas ; dans beaucoup d’autres elle peut être vérifiée par l’analyse de séries de données historiques. Il ne s’agit certainement pas d’une prévision impressionnante par son originalité mais c’est bien celle qui minimise l’erreur et est donc la seule authentiquement « scientifique ». Or cette prévision n’est jamais utilisée en finance et la « norme industrielle » est toujours une formule très compliquée qui produit un chiffre différent ; le raisonnement sous–jacent est, à mon sens, que si quelqu’un est grassement payé en tant qu’ingénieur financier, il doit pouvoir faire mieux qu’affirmer que le prix de demain sera probablement le même qu’aujourd’hui.

Un bon exemple en est fourni par les prévisions relatives à la courbe des taux, qui représente le taux flottant correspondant à un prêt à trois mois, six mois, un an, cinq ans, dix ans, etc. et dont, comme je viens de le dire, la meilleure prévision possible est qu’elle se maintiendra telle quelle. La « norme industrielle », au contraire, est qu’on peut utiliser comme prévision pour la courbe des taux, la courbe des taux à terme.

La courbe des taux à terme est une courbe qui montre ce qu’il en coûte aujourd’hui d’emprunter à terme, c’est–à–dire plus tard. Je vais chez le banquier et je lui dis : « J’aurai besoin d’un million dans un an que je vous emprunterais pour trois ans. Pouvons–nous en fixer le taux maintenant ? » Si le banquier dit oui, vous aurez fixé le taux à terme pour trois ans, dans un an. Ce que le taux à terme exprime est ce qu’il en coûte aujourd’hui d’emprunter pour trois ans dans un an ; la « norme industrielle » consiste à dire que la courbe des taux à terme exprime « ce qu’il en coûtera d’emprunter pour trois ans dans un an », ce qui est tout simplement faux. La distinction est subtile mais la confusion réside dans le fait qu’il ne s’agit pas d’un taux fixé dans l’avenir mais d’un taux fixé aujourd’hui « à propos » de l’avenir et sa capacité de prédire celui–ci est en conséquence, tout simplement nulle.

Les deux types de modèles, « scientifique » et de « norme industrielle » diffèrent pour ce qui touche au risque systémique qu’ils présentent, c’est–à–dire quant au risque d’effet boule de neige qu’ils constituent pour les marchés financiers. Les modèles « scientifiques » ne présentent pas de risque systémique pour la raison suivante : soit ils sont proprement scientifiques et sont donc exacts, soit ils sont « scientifiques » au titre de ceux que j’ai évoqués précédemment où différentes composantes présentent des degrés divers de précision, et chacun se trompant différemment, aucun effet global n’en résultera. Un risque systémique réel existe cependant dans l’usage des modèles dits de « norme industrielle ». Ils ne sont pas scientifiques et par conséquent se trompent, mais du fait qu’ils ont été adoptés par l’ensemble de la branche, tous ses utilisateurs se trompent exactement de la même manière. Le jour viendra où chacun de ces utilisateurs posera au même moment le même geste – qui n’est pas celui qui conviendrait – et un effet global catastrophique en résultera.

Partager :
Recommandez par mail Recommandez par mail

Le loustic qui s’est convaincu qu’Einstein était bête

Je me suis retrouvé quelquefois dans la situation embarrassante d’être abordé par un loustic qui vous prie de lui prêter attention : il a découvert une erreur fondamentale dans la théorie de la relativité (ou, au choix, la mécanique quantique, la génétique, etc.) il tente d’alerter le monde mais les autorités en place se coalisent contre lui, ayant partie liée avec les faussaires.

Je n’ai jamais éconduit ce genre de personnage – de la même manière que j’ai prêté une oreille attentive aux Témoins de Jéhovah (ou au choix, Scientologues, Haré Krichna, etc.) – malheureusement l’expérience s’est toujours révélée également décevante car le loustic en question ne maîtrise en réalité jamais son sujet : l’erreur fondamentale qu’il a prétendument débusquée n’existe que pour lui seul et elle n’est en réalité qu’un artefact de son ignorance.

Je ne mentionne cette expérience que parce qu’aux yeux de certains je me suis trouvé moi–même parfois dans la position du loustic.

Mes intérêts sont éclectiques et je n’ai jamais écarté une question importante parce qu’elle se trouvait a priori en–dehors de mon domaine d’expertise. La différence entre le loustic et moi–même – telle est du moins la manière dont je l’envisage – est que j’ai chaque fois retroussé mes manches et ne me suis prononcé sur une question que lorsque j’estimais avoir acquis une expertise du domaine équivalente à celle de ses spécialistes, ce qui m’a toujours pris – n’en déplaise à certains. – le même nombre d’années qu’à tout un chacun. Le seul aspect surprenant alors serait l’inclination qui est la mienne à retrousser mes manches de cette façon, un nombre considérable de fois.

Ce qui a attiré mon attention sur la démonstration du « second théorème » de Gödel, celui consacré à l’incomplétude de l’arithmétique, c’est sa complication. Devant cette complication, on a bien sûr le choix, soit y voir un obstacle insurmontable, soit le prendre au contraire comme un défi. J’entrepris de lire les textes. Le tournant pour moi fut la lecture du livre consacré par Ladrière au théorème et à sa réception (*). Dawson, qui s’est intéressé en particulier à la manière dont Wittgenstein concevait le théorème, mit en évidence que si certains de ceux qui à l’époque (1931) le dénoncèrent comme une imposture n’avaient pas compris sa démonstration, d’autres, qui le saluèrent comme une révolution, n’y avaient pas compris davantage, sinon encore bien moins (**). Ceci me convainquit que bien peu nombreux avaient dû être – même parmi les mathématiciens – ceux qui avaient suivi d’un bout à l’autre les étapes de la démonstration. Et c’est cela qui fit pencher la balance pour moi du côté du défi.

Le capital que vous constituent au fil des ans des intérêts éclectiques, c’est une impressionnante boîte à outils. J’y disposais, entre autres, d’un bon aperçu historique de ce qu’on appelle les modes d’inculcation de la preuve, aussi bien en mathématiques qu’en logique. J’avais exploré les formes de la démonstration telles qu’Aristote les conçoit pour l’analytique (lorsque l’on part de prémisses certaines) comme pour la dialectique (lorsque les prémisses ne sont que plausibles) ; je m’étais intéressé à la logique des Stoïciens et à celle des Mégariques, j’avais enfin étudié la logique scolastique à laquelle les logiciens de Port–Royal mirent un point final et dont ils dressèrent alors le bilan.

Quand j’ouvris la boîte de Pandore de la démonstration du second théorème de Gödel, j’éprouvai la même consternation qui dut saisir Spirou découvrant que la machine qui devait mettre le feu à l’atmosphère et s’était écrasée sans gloire dans un champ, révèle dans ses flancs éventrés un amas de boîtes de conserve usagées. Je découvrais plus précisément un assemblage de chaînons combinant les modes de preuve parmi les plus faibles qui soient : de l’induction fondée sur un exemple unique à la preuve par l’absurde qui établit la vérité d’une proposition par l’exclusion de sa contradictoire, c’est–à–dire, en réalité, en désespoir de cause.

Surtout, la démonstration de Gödel culminait dans le tour de passe–passe d’une proposition arithmétique en qui en est codée une autre, celle–ci méta–mathématique affirmant quelque chose quant à la démonstrabilité de la première. La naïveté de Gödel – il faut bien appeler un chat, un chat – consiste à imaginer qu’il existe un lien consubstantiel entre la première proposition et celle codée en son sein, négligeant que si les propositions arithmétiques avaient la capacité de parler d’elles–mêmes, elles disposeraient également de celle de mentir à leur propre sujet.

Je supposai que Gödel n’avait pas été entièrement dupe de son artificce et le parallèle qui s’imposa à moi fut celui du chaman kwakiutl Quesalid dont parla Franz Boas et dont Lévi–Strauss analysa le comportement qui, bien que trompant délibérément son public, se convainquait cependant « qu’il devait bien y avoir quelque chose » dans ses propres astuces.
Lévi–Strauss avait intitulé son texte « Le sorcier et sa magie » (***), j’appelai le mien, « Le mathématicien et sa magie » (****). Je le proposai à la revue L’Homme qui m’a très souvent publié et qui l’accepta aussitôt. M’enquérant quelques mois plus tard de sa date de publication, j’appris que le comité de rédaction était revenu sur sa décision sans juger bon de m’en avertir.

Je n’ai jamais su ce qui s’était réellement passé. Je suppose que le second théorème de Gödel fut considérée comme une institution trop prestigieuse pour qu’une revue d’anthropologie attente à sa réputation, le doute dut s’installer que j’étais peut–être moi–même l’un de ces loustics qui découvrent des erreurs grossières chez Einstein.

Je publiai le texte sur mon site Internet. Cela donna lieu à plusieurs débats passionnants avec Jean Lassègue et Bruno Marchal. Que peut–on en réalité demander d’autre ?

(*) Ladrière, Jean, Les limitations internes des formalismes. Étude sur la signification du théorème de Gödel et des théorèmes apparentés dans la théorie des fondements des mathématiques, (Paris : Gauthier-Villars 1957), Paris : Jacques Gabay, 1992
(**) Dawson, John W. Jr., « The reception of Gödel’s Incompleteness
Theorems », in S.G. Shanker (ed.), Gödel’s Theorem in Focus, London: Croom Helm, 1988 : 74-95
(***) Lévi-Strauss, Claude, Anthropologie structurale, Paris: Plon, 1958
(****) « Le mathématicien et sa magie : Théorème de Gödel et anthropologie des savoirs », sur mon site Internet

Partager :
Recommandez par mail Recommandez par mail