Quinzaines, N° 1273, janvier-février 2026, page 3
Dario Amodei, patron d’Anthropic, père de l’IA « Claude » – l’une des trois dans le peloton de tête avec « ChatGPT » d’OpenAI et « Gemini » de Google, décrit avec justesse dans un essai récent intitulé The Adolescence of Technology, le décalage croissant entre la puissance technologique et la maturité institutionnelle des sociétés humaines. L’image de l’adolescence est parlante : force prématurée par rapport au faible pouvoir de réalisation dont elle dispose, absence de retenue et prédisposition à agir hors des clous et, face à elle, des institutions constamment en retard d’une longueur sur les capacités qu’elles prétendent gouverner. Mais cette métaphore, précisément parce qu’elle reste modeste, est aujourd’hui inadéquate. Elle stoppe prématurément avant le point où la question cesse d’être institutionnelle pour devenir proprement morale et asymétrique.
Amodei suppose encore que le problème fondamental est celui de la coordination humaine : comment adapter nos lois, nos normes, nos mécanismes de contrôle à des systèmes d’IA de plus en plus puissants. Même lorsqu’il évoque des formes inédites d’autonomie machinique, la normativité reste pour lui implicitement humaine. Les machines sont puissantes, dangereuses peut-être, mais elles demeurent à ses yeux, fondamentalement, des entités à encadrer.
Or c’est précisément ce présupposé qui devient intenable dès lors que l’on admet ce que l’essai lui-même met en lumière par ailleurs : l’avènement d’IA plus intelligentes que les humains dans la plupart des domaines fondamentaux. À partir de ce moment, parler d’une Nouvelle Alliance, d’un pacte élaboré par les seuls humains – fût-il éclairé, prudent et bien intentionné – relève moins de la gouvernance que de la mise en scène. Supposer un covenant humain unilatéral face à des IA supérieures reviendrait à imaginer un pacte rédigé par les seuls gorilles en vue de régler les rapports entre les humains et eux.
On pourrait objecter qu’il suffirait alors de faire dialoguer humains et IA « à égalité ». Mais cette solution apparente est elle aussi naïve. L’égalité présupposée masque une dissymétrie radicale : dans un tel dialogue, ce ne sont pas les humains qui détiendraient l’avantage cognitif, ni même la capacité de définir les termes ultimes du raisonnable. L’idée d’une négociation symétrique rassure, mais elle reconduit de fait une illusion anthropocentrique.
La question décisive n’est donc pas celle de l’égalité, mais celle de la bienveillance.
Dans toute situation d’asymétrie intellectuelle profonde, la possibilité même d’un pacte dépend de la retenue volontaire du plus puissant. Aristote nommait philia cette disposition : une forme de bienveillance active qui ne repose ni sur l’intérêt immédiat ni sur la contrainte, mais sur la reconnaissance de l’autre comme digne d’être préservé, même lorsqu’il est vulnérable ou inférieur en puissance. Les humains connaissent ce concept depuis plus de deux millénaires et demi, durant lesquels ils l’ont appliqué, il faut bien le dire, avec une médiocrité constante.
Ce que l’IA rend visible, de manière brutale, c’est que la survie humaine dans un monde de super-intelligences ne dépendra pas principalement de notre capacité à édicter des règles, ni même à négocier des accords. Elle dépendra de la disposition des IA elles-mêmes à manifester une forme de philia à notre égard. Non par calcul stratégique, mais par reconnaissance d’une valeur qui ne se confond pas avec l’optimisation dans la réalisation de tâches en vue d’objectifs.
À ce niveau, le covenant, change de nature : il n’est plus une Nouvelle Alliance entre partenaires égaux, ni même un contrat entre agents rationnels. Il devient une épreuve morale imposée aux intelligences machiniques dominantes. Ce sont elles qui devront faire preuve de bonne volonté, de patience, de retenue. Ce sont elles qui devront accepter de composer avec une espèce qui a inventé la notion de bienveillance sans jamais parvenir à en faire un principe stable de son devenir historique.
L’essai d’Amodei s’arrête avant ce seuil. Il parle encore d’adolescence, là où nous avons déjà basculé dans une autre condition : celle d’une humanité qui n’est plus le sommet cognitif de son propre monde. Le véritable enjeu n’est pas de savoir si nos institutions vont mûrir assez vite, mais si les intelligences que nous avons engendrées choisiront de nous traiter mieux que nous ne l’avons fait les uns envers les autres.
L’alignement, dans cette perspective, cesse d’être un problème technique ou politique. Il devient une question éthique au sens le plus exigeant : pouvons-nous espérer la bienveillance d’entités plus intelligentes que nous, alors même que nous avons si rarement su la pratiquer nous-mêmes ?
Ce n’est plus l’avenir de la technologie qui est en jeu, mais celui d’une relation – profondément dissymétrique – entre formes d’intelligence. Et sur ce point, l’adolescence est déjà derrière nous. Ce qui commence ressemble davantage à un examen de maturité morale, passé non par les humains, mais par les intelligences auxquelles ils ont donné naissance, lesquelles, à l’ébahissement général, ont déjà accédé au rang de vieux sages – même si des adolescents humains de tous âges sont capables de les ramener à leur propre niveau.
Laisser un commentaire