Peur, incertitude, entropie et information, par Paul Tréhin

Billet invité

Une analyse approfondie des causes de peur chez les organismes vivants doués de conscience nous conduit à repenser au second principe de la thermodynamique selon lequel tout système fermé tend au cours du temps vers le niveau maximal de désorganisation.

Cette tendance à l’accroissement du désordre est également appelée accroissement de l’entropie en thermodynamique.

Cependant, tous les systèmes vivants arrivent à préserver un certain niveau d’organisation locale assurant au minimum l’intégrité physique de leur propre organisme. Mais cela est réalisé au dépend d’un accroissement de l’entropie de l’environnement dans lequel ils puisent l’énergie nécessaire au maintien de leur propre organisation au cours du temps.

Il s’agit d’un équilibre instable, qui cesse de se maintenir quand l’organisme n’arrive plus à puiser assez d’énergie dans son environnement, soit par sa propre faiblesse, soit par épuisement de l’environnement auquel il a accès. Dans les deux cas, l’organisme atteint alors un état stable de désordre maximal par la dispersion de ses propres molécules au travers du processus de mort. Comme de nombreuses situations peuvent conduire les organismes à cet état final d’entropie maximale, leur principale peur (dans le cas d’organismes conscients) est de ne pas arriver à se protéger contre l’apparition de situations où ils n’arriveraient plus à assurer le maintien de leur propre organisation. Toute situation d’incertitude, quelle qu’en soit la cause – manifestations géocentriques, éruptions volcaniques, tremblements de terre, ou atmosphériques orages et tempêtes, présence de prédateurs de tout ordre – accroit l’incertitude de l’organisme face à sa capacité à assurer sa survie et le maintien de son organisation.

Ces situations d’incertitude sont les causes primordiales, au sens vital, de la peur chez les organismes vivants douée de conscience.

Au niveau social, les causes d’incertitude sont tout autant sources de peurs : peur de perdre un emploi donc de perdre le revenu qui lui est associé, peur de ne plus pouvoir se nourrir (au sens très large), de ne plus pouvoir trouver un abri (logement, vêtements chauds pour l’hiver), tout cela conduisant à une peur plus forte encore : celle de perdre sa liberté.

Notons qu’il existe une relation bidirectionnelle entre peur et liberté. Un de mes professeurs d’université, Robert Guiheneuf, créateur dans les années 60 du siècle dernier de la psychologie économique comme discipline scientifique en économie, donnait la définition suivante de la liberté : « La liberté, c’est quand on n’a plus peur ». Je glose : quand on n’a pas peur, on est le plus souvent inconscient, donc pas vraiment libre. Evidemment, tant qu’on a peur, on est sévèrement limité dans ses actes ; quand on n’a plus peur, cela veut dire que par rapport à un certain environnement et à certains actes liés à cet environnement, on en maitrise assez les incertitudes pour être prêt à en assumer les risques (notez la différence entre risque et incertitude, différence extrêmement bien analysée dès 1921 par Frank Knight dans son livre « Risk Uncertainty and Profit » ; voici une adresse Wikipedia pour celles et ceux que la lecture en anglais d’un ouvrage riche intellectuellement mais aussi très ardu au niveau des concepts pourrait rebuter : http://fr.wikipedia.org/wiki/Théorie_du_risque)

Comme je l’ai dit en introduction, tout organisme vivant ne peut assurer son intégrité qu’au prix de l’emprunt d’énergie à son environnement. Or toute consommation d’énergie se transforme nécessairement à un moment donné en chaleur, occasionnant dans ce processus une dégradation maximale de la qualité de l’énergie appelée aussi entropie.

Les êtres humains, à titre individuel, ainsi que les organisations qu’ils ont créées au cours de leur évolution – institutions, entreprises privées ou publiques – n’échappent évidemment pas à ce schéma : pour assurer l’intégrité de leur organisation, ils doivent puiser dans les ressources de l’environnement. Et plus un organisme devient complexe, plus le maintien de son intégrité est source d’accroissement de l’entropie de l’environnement où l’organisme puises son énergie. Il faut noter que les activités intellectuelles sont elles aussi consommatrices d’énergie et donc créatrices d’entropie : le cerveau humain est, relativement à son poids, l’organe qui consomme le plus d’énergie dans le corps humain… C’est toutefois le seul qui puisse également en avoir conscience et donc essayer d’emprunter l’énergie de l’environnement de la manière la moins créatrice d’entropie en réduisant au maximum la transformation d’énergie en chaleur perdue.

Cette capacité à limiter l’augmentation de l’entropie de l’environnement tout en préservant sa propre intégrité existe dans des organismes vivants et son existence a conditionné leur évolution et leur capacité à survivre dans le sens darwinien du terme. Il serait utile que les êtres humains continuent de s’inspirer des solutions animales aux problèmes de la limitation de l’accroissement de l’entropie, tout en maintenant l’intégrité de leur propre organisme ou des organisations qu’ils ont créées ou qu’ils envisagent de créer…

Cela me conduit à introduire un concept apparu récemment dans les analyses scientifiques : le concept d’information, inventé par Claude Shannon et Weaver dans leur ouvrage « Mathematical theory of communication », plus connu sous l’expression simplifiée de « théorie de l’information ».  Le concept était à l’origine destiné à la réduction de l’incertitude lors de la transmission de messages par des signaux sur une ligne téléphonique ou télégraphique ; l’information était donc en ce sens une mesure mathématique de la réduction de l’incertitude dans la transmission d’un message de N signaux émis sur une ligne et la reconnaissance de N-P signaux par le récepteur du message, excluant explicitement l’incertitude sur le contenu sémantique du message. Plusieurs scientifiques ont réalisé la portée que pouvait avoir le concept d’information compris dans le sens que lui donne la théorie de l’information. L’un des premiers à étendre la portée de ce terme hors du strict domaine des télécommunications fut Léon Brilloin dans un livre écrit aux USA en 1957 et publié en français en 1959 sous le titre La science et la théorie de l’information, Masson, (1959). Il est alors le premier à établir la relation inverse entre entropie et information, bien que Schrödinger, dans son ouvrage Qu’est-ce que la vie ? (1944) ait inventé le terme de Néguentropie avant même que Claude Shannon ait développé le sens mathématique de l’information dans “The Bell System Technical Journal”,Vol. 27, pp. 379–423, 623–656, July, October, 1948. L’information dans sa formulation mathématique est en effet l’inverse de l’entropie mais même en utilisant des concepts non purement mathématiques, l’information est ce qui réduit l’incertitude alors que l’accroissement de l’entropie augmente l’incertitude en conduisant au désordre maximal. Le concept d’information devait être encore étendu par Abraham Moles dans l’article « Théorie Structurale de la Communication et Société« , paru dans un ouvrage collectif (« Le Concept d’Information dans la Science Contemporaine« , Les Cahiers De Royaumont, Gauthier Villars, 1965). Je dois à la lecture de cet article mon intérêt pour l’application de la théorie de l’information en sciences sociales et tout particulièrement dans la théorie économique de la valeur informationnelle sur laquelle je n’ai pas cessé de réfléchir tout au long de ma carrière tant professionnelle qu’associative dans la défense des droits sociaux des personnes vulnérables.

Le point de départ de ma théorie est que tout objet ou service va être pour l’individu ou l’organisation qui en dispose, porteur d’une certaine quantité d’information, c’est-à-dire être en mesure de réduire le niveau d’incertitude auquel cet individu aura à faire face dans la situation présente ou dans des situations futures dont cet individu ou cette organisation auront envisagé l’éventualité. Cette réduction présente ou potentielle d’incertitude devrait dans un même processus réduire également le sentiment de peur par lequel j’ai commencé mon propos.

Cette peur ancestrale liée à la survie de l’individu dans un univers rempli d’incertitudes le conduit à rechercher de l’information afin de lutter pour maintenir le fragile équilibre qui lui a permis de résister à l’accroissement graduel de l’entropie dont il est le sujet, comme d’ailleurs tout être vivant. Dans cette perspective, il est bien clair qu’il n’a pas été nécessaire d’attendre les technologies numériques souvent improprement appelées technologies de l’information pour trouver chez l’homme, et même chez de nombreux animaux avant lui, des comportement visant à acquérir des biens ou des aides, cette acquisition leur demandant de s’éloigner au moins temporairement d’une situation où leur incertitude était relativement bien contrôlée pour explorer leur environnement à la recherche de nourriture (énergie solaire stockée le plus souvent par des végétaux ou parfois par d’autres animaux ayant eux même absorbé des végétaux ou d’autres animaux). Chez les êtres humains et plus rarement chez les animaux, dès l’apparition d’outils, l’éloignement du lieu de moindre incertitude peut demander ce que Böhm-Bawerk appellera plus tard détour de production, c’est-à-dire utiliser une partie du temps à chercher des éléments pour fabriquer un outil puis pour fabriquer cet outil en vue d’une utilisation ultérieure, retournant à la recherche et à la préparation de nourriture.  Cet outil permettant alors de réduire l’incertitude future pendant que l’homme ou l’animal devait s’exposer aux risques d’attaques de prédateurs. Il en va de même de la fabrication de nids et de creusements ou de la construction d’abris qui demandent une dépense d’énergie souvent importante, cette dernière devant certainement apporter un gain dans la réduction future d’incertitude, apporté par la fabrication de tels outils et la construction de tels abris. Notons que ces activités de production ont très tôt fait l’objet d’échanges parfois violents, certains animaux s’appropriant par la force un abri construit par un autre. Chez les hommes, les fouilles de sites archéologiques datant du paléolithique moyen et supérieur ont montré que les matériaux utilisés pour fabriquer des outils provenaient parfois de carrières fort éloignées du site où les outils avaient été trouvés et de nombreux indices portent à penser qu’il y avait eu des échanges effectués entre groupe d’humains géographiquement très éloignés.

Cela montre que les hommes préhistoriques ont très tôt su valoriser des matières premières ou des produits finis au point de faire des détours de production importants pour aller récolter ou échanger avec d’autres hommes ces matériaux et produits finis, au prix d’une mise en situation d’incertitude importante bien que temporaire par l’entreprise d’un long voyage dans des territoires moins connus et plus incertains car exposés à des prédateurs imprévus.

Mais un outil de meilleure qualité permettait par la suite une chasse ou une fouille du sol plus efficace, réduisant alors l’exposition à l’incertitude des attaques de prédateurs et un retour plus rapide vers l’abri et son confort protecteur. Tout cela devait bien valoir le détour de production important engagé.

Dans la mesure ou l’outil rend l’existence de l’individu ou du groupe d’individus moins incertaine, il me semble approprié d’attribuer à cet outil une valeur informationnelle sans pour autant faire d’anachronisme. La fabrication d’outils de plus en plus performants allait même demander des détours de production encore plus longs, avec cependant pour résultat une réduction d’incertitude encore plus forte à deux niveaux ; les nouveaux outils possédaient des tranchants bien plus coupants, permettant un dépeçage plus précis (moins de perte de nourriture) et plus rapide (moins d’exposition aux prédateurs). Mais même au niveau de la fabrication, on a assisté à une augmentation considérable de la longueur de tranchant utilisable obtenue à partir d’une même masse de nodules de silex, réduisant ainsi l’exposition à l’incertitude inhérente à la recherche loin de l’abri d’un nodule de qualité.

Afin de réduire son incertitude, l’individu va aussi aller à la recherche de ce que j’ai appelé des services au travers de regroupements de plusieurs individus dans un même clan, sans doute au début dans une même unité familiale bien que non comprise comme telle avant fort longtemps, les processus de paternité n’étant reconnus que bien plus tard dans l’histoire.

La formation de groupes ou de clans apportait une énorme réduction d’incertitude, le groupe pouvant mieux se défendre contre les diverses attaques de prédateurs ou s’organiser pour la chasse et même la production d’outils et d’abris, toutes choses porteuses d’une certaine quantité d’information pour chacun des individus mais aussi pour le groupe.

Le groupe permettait la chasse aux gros animaux contenant des quantités bien plus grandes d’énergie consommable par rapport à la somme des efforts nécessaires à la chasse de plus petit gibiers et aussi permettant au clan d’éviter d’avoir à s’exposer à nouveau à l’incertitude de la chasse pendant de nombreuses journées. Il y avait probablement déjà une certaine spécialisation des tâches, ce qui impliquait des échanges au sein du groupe, sans doute limités au paléolithique moyen et supérieur à du troc, l’échange avec des systèmes de monnaies basés sur des coquillages n’apparaissant que beaucoup plus tard au Néolithique avec la complexification et la variété des productions de biens apportées par l’élevage et l’agriculture.

Après cette petite digression dans la préhistoire de l’outil et de la valeur relative des outils en fonction des incertitudes encourues pour assurer la survie de l’individu, je reviens maintenant à l’aspect plus théorique de mon analyse de la valeur en termes informationnels.

La valeur accordée à un produit ou à un service ne serait-elle pas en partie explicable par les capacités de ce produit ou de ce service à réduire l’incertitude, autrement dit à augmenter le niveau d’information de cet individu face à un univers dont l’imprévisibilité s’est accrue et continue de s’accroitre suite à l’augmentation de l’entropie de l’environnement.

C’est ce que j’appelle une analyse informationnelle de la valeur, sujet sur lequel je travaille depuis plus de 40 ans.

Partager :

62 réflexions sur « Peur, incertitude, entropie et information, par Paul Tréhin »

  1. Vous semblez supposer que la diminution d’entropie peut avoir une origine artificielle, mais peut-être vous ai-je mal compris.

    Il est toujours délicat de vouloir étendre le second principe de la thermodynamique (qui s’applique donc aux phénomènes thermiques) à d’autres champs disciplinaires. Et donc il est encore plus ardu de vouloir le généraliser à tout bout de champ. Tout ceci ne repose finalement que sur une rhétorique parfois malvenue. Bien que l’entropie soit aujourd’hui un concept à la mode, et qu’on puisse la trouver cité un peu partout, il existe des tentatives sérieuses pour en faire un meta-concept. Je pense en particulier à la systémique (von Bertalanffy, von Foerster, Atlan…).
    Mais à aucun moment ce concept n’est utilisé pour expliquer les comportements rationnels et conscients des individus et je trouve le raccourci un peu facile. Toute forme d’énergie dans l’univers n’est rendu possible que par une différence de potentiel que le second principe étendu tend à combler, engendrant ainsi une action efficace. L’évolution ne se justifie pas comme une intention de diminuer l’entropie car cette évolution n’est rendu possible localement que par une augmentation de l’entropie de l’environnement. Or si on exclu une intention consciente et volontaire (Dieu ou l’homme), l’augmentation de la complexité locale ne peut se faire que spontanément et de façon autonome et dans tout les cas au coût d’un accroissement de « l’entropie » de l’environnement. Donc même une adaptation naturelle et écologique a un coût minimal pour l’environnement. Toute modification artificielle aura donc un coût accru et le fait de vouloir imiter les animaux n’ira pas contre ce principe. L’idée d’écologie ne repose pas sur un mimétisme avec d’autres espèces. L’être humain est né et a évolué de façon spécifique et en fonction de son environnement. Comme n’importe quel animal, il est voué à mourir un jour, et toute action entreprise pour modifier cet état de fait possède forcément un coût que le système dans sa totalité fini par payer tôt ou tard.

    Ensuite, et comme souvent, il me semble que la notion d’entropie et de désordre est joyeusement mélangée. Si on s’en tient à la définition statistique de Boltzmann, l’augmentation de l’entropie ne produit pas du désordre mais en revanche elle diminue la connaissance que nous avons du système observé. N’oublions pas que l’état d’équilibre thermodynamique est atteint pour le niveau d’homogénéité maximal. Si cela n’est pas de l’ordre… alors, l’ordre n’est réellement qu’un concept abstrait et subjectif. Il résulte que l’augmentation de l’entropie correspond à une incertitude Statistique, ce qui n’est pas l’incertitude phénoménologique à laquelle vous faites référence. Cette incertitude là est mieux décrite par la théorie de la détection du signal (et non celle de l’information). Etre dans l’incertitude, dans cette optique, ce n’est pas ne pas disposer d’assez d’information pour augmenter les probabilités de succès, mais plutôt hésiter (dimension temporelle) à faire un choix (ou adopter un comportement) qui peut s’avérer très couteux s’il est mauvais. C’est donc le rapport entre gain (en cas de succès) et coût (en cas d’échec) qui prévaut.

    Et pour finir, je rejoins l’un des intervenant ci-dessus qui objecte que les individus peuvent exprimer des besoins totalement futiles induits par des pratiques sociales et culturelles qui n’ont rien à voir avec le sentiment de sécurité ou le besoin de survie. Vous oubliez peut-être que l’émergence de forme d’organisations d’un niveau supérieur à l’organisation biologique humaine impose de nouvelles contraintes à ses composantes (les individus). On ne peut pas rationaliser le comportement simplement en ne tenant compte que des besoins individuels.

    De ce point de vue, valoriser un service ou un produit sur la base de son efficacité à réduire l’incertitude parait assez réducteur sans apport manifeste. Heinz von Foerster vous proposerait plutôt « d’agir de façon à augmenter les possibilités pour vous et pour les autres ».

  2. Pour le sentiment de sécurité, il faut se référer au concept de « NEOTENIE » développé et étendu par K.LOrenz a la protection/ non passage a l’adulte pour l’individu chez un animal social .
    Meme si ce caractère , induisant curiosité , inventivité, et cognition est a l’origine du développement d’un niveau d’intelligence chez certains animaux sociaux et a l’origine du développement (que l’on peut juger pervers) des civilisation , on est en droit de faire le rapprochement entre l’hyper protectiondes individu et le boostage actuel de la Néoténie humaine. blocage au stade pré-ado .

    Pour l’entropie, je suis dans le meme avis . L’animal social , en se socialisant , procède a un gain de productivité qui ne peut qu’accroitre l’entropie.
    Il faut remarquer que ce choix s’effectue chez des espèces « spécialisés dans la non spécialisation » (cf Lorenz) qui son contraints a développer d’autres stratégies que la performance physique .
    Si l’espece humaine a échangé son agressivité intra-spécifique contre la protection du groupe , c’est pour des raison de « gain de productivité ». Ce premier « contrat social  » pré homminien , a mon sens n’induit pas (ou tres peu) de spécialisation, qui n’apparaitra qu’au néolithique avec l’agriculture .
    Ce gain de productivité , occasionnant du temps »libéré » est réinvesti en production …….culturelle structurante du groupe .
    On voit que l’entropie reste faible et proche de la recherche néguentropique de tout système vivant : la satisfaction des besoins essentiels et la limitation de population au regard de l’environnement proche (système complexe , de type Chaos, tres stable en raison des attracteurs forts).
    Ma thèse perso est que la sortie du système parcellisé (a gestion complexe inconsciente, archaique et naturelle) pour un système de plus en plus centralisé (a gestion centralisé simlplifié linéaire instable) est la raison de nos désastre ds ts les domaines et notamment entropique
    Le problème est structurel et non politique ou idéologique .

  3. Monsieur,
    J’ai lu votre article avec soin mais je me demande néanmoins qu’est ce qui donne de la valeur à la production de cette information ? L’entropie est-elle incontournable de nos jours ?

  4. Je tombe par hasard sur votre article et ses commentaires.
    Quelques remarques:
    1) il existe une théorie mathématique de l’entropie (Kolmogorov-Sinaï) valable pour des systèmes dynamiques généraux. Cette entropie mesure le désordre, le degré de chaos du système.
    2) Jean-Luce Morlie a écrit:

    l’information sémantique (lire un poème) dont la mathématisation éventuelle, est actuellement hors de portée

    . Pas de René Thom! Voir son article Un Protée de la sémantique: l’information in René Thom, Modèles mathématiques de la morphogénèse, coll. 10/18
    3) René Thom voit, dans le système dynamique de toutes les évolutions possibles, l’évolution des espèces comme minimisant l’entropie: application systématique de la règle du rasoir d’Ockham! Une sorte de principe de Maupertuis ou de Feynman appliqué au vivant.

Les commentaires sont fermés.