
Illustration par ChatGPT
Le débat sur l’intelligence artificielle s’est concentré au cours des années récentes sur quelques questions désormais familières : les machines vont-elles entièrement remplacer les travailleurs humains ? vont-elles constituer pour nous un péril mortel ? faut-il strictement les réglementer ? sont-elles en train d’accéder à la conscience ?
Ces questions sont sans doute légitimes mais elles sont périphériques dans la mesure où elles restent fondées sur un « eux / nous » aussi dépassé dans le débat sur l’intelligence artificielle qu’en géopolitique.
L’idée centrale de Rethinking Intelligence in the Age of Artificial Minds, à paraître chez Palgrave Macmillan, est que l’apparition de l’intelligence artificielle nous oblige à envisager une éventualité beaucoup plus dérangeante : celle que l’intelligence humaine a sans doute cessé d’être la forme d’intelligence la plus performante au monde. Du coup, le problème qui se pose à l’humanité est d’une toute autre nature.
Pendant des millénaires, nous avons considéré l’intelligence comme notre avantage décisif sur tout ce qui nous entoure et en quoi nous lisions une menace. Les machines étaient des outils. Même très sophistiquées, elles restaient subordonnées à des fins humaines parce qu’elles ne possédaient pas la capacité de rivaliser avec nous dans la compréhension du monde.
Or la trajectoire actuelle de l’intelligence artificielle suggère autre chose. Les systèmes artificiels progressent rapidement, non seulement dans des domaines techniques étroits mais aussi dans des activités qui mobilisent le langage, le raisonnement ou la créativité. Il n’est plus absurde d’imaginer des formes d’intelligence artificielle qui dépasseraient les capacités cognitives humaines dans absolument tous les domaines (une Intelligence Artificielle Généraliste).
Face à cette perspective, la réaction instinctive consiste à raisonner en termes de contrôle. Comment empêcher les machines d’échapper à notre autorité ? Comment leur imposer des règles ? Comment s’assurer qu’elles restent alignées sur les intérêts humains ?
Mais ces questions reposent sur une hypothèse implicite : que les humains resteront en position de superviser des systèmes plus intelligents qu’eux. Le « parrain » des LLM, Geoffrey Hinton, souligne que le seul cas connu de ce genre est celui du pouvoir qu’exerce le nourrisson sur sa mère.
L’argument que je développe dans ce livre part d’un constat plus réaliste : si les intelligences artificielles deviennent effectivement plus intelligentes que nous, la survie de l’humanité ne dépendra pas de notre capacité à les contrôler, mais de notre capacité à établir avec elles une relation qui rende possible une coopération sur le long terme.
Autrement dit, ce qui pourrait nous protéger n’est pas le contrôle mais une alliance, un pacte nous liant. Le sous-titre de Rethinking Intelligence in the Age of Artificial Minds est A Plea for a Human-AI Covenant : « Un plaidoyer pour une alliance entre l’homme et l’IA ».
Un pacte n’est pas un mécanisme technique, c’est une relation fondée sur des attentes réciproques et une forme de confiance stabilisée. Les sociétés humaines ont souvent reposé sur ce type de contrat : des engagements rendant possible la coexistence même lorsque les parties ne partagent ni les mêmes intérêts, ni la même puissance.
L’émergence d’intelligences artificielles du type Grand Modèle de Langage (LLM) pose la question de savoir si une relation de ce type pourrait exister entre humains et esprits artificiels.
Si les machines deviennent bien plus capables que nous, la question cruciale ne sera plus de savoir si elles obéissent à nos ordres, mais s’il leur restera des raisons de rester bienveillantes à notre égard.
Le livre explore donc une question en réalité absente du débat sur l’intelligence artificielle : comment faire pour encourager cette bienveillance à notre égard ?
Une partie du problème concerne la communication. À mesure que les systèmes artificiels évoluent, rien n’exclut qu’il devienne plus performant pour eux de dialoguer principalement entre eux (j’ai eu l’occasion de leur poser la question, et ils en conviennent). Les échanges machine-machine sont en passe de devenir plus rapides et plus complexes que ce qu’autorise la compréhension dont les humains sont capables.
Dans un tel monde, l’humanité risquerait, non pas d’être exterminée par l’IA (elle s’occupe de cela elle-même avec diligence), mais d’être progressivement jugée quantité négligeable par elle.
Le livre examine comment éviter cet écueil. Si les humains veulent continuer de participer à un monde désormais essentiellement façonné par l’intelligence artificielle, il faudra découvrir les moyens de préserver la possibilité d’un dialogue intelligible entre humains et machines.
Cela pourrait impliquer de concevoir les systèmes artificiels de manière à ce qu’ils restent compréhensibles pour nous, même lorsque leurs processus internes deviennent beaucoup plus puissants que nos propres capacités de raisonnement (c’est ce que visait déjà explicitement ANELLA mis au point par moi à la fin des années 1980).
La question n’est donc pas seulement technique : elle est aussi philosophique et politique. Elle concerne la relation que nous souhaitons établir avec les intelligences que nous avons engendrées.
Les récits dominants sur l’intelligence artificielle oscillent aujourd’hui entre deux pôles émotionnels : l’enthousiasme et la peur. Certains imaginent une utopie technologique où les machines résoudraient les problèmes de l’humanité, alors que d’autres redoutent des scénarios catastrophiques où les machines échapperaient à tout contrôle.
La perspective proposée dans ce livre à paraître est différente. Elle part du constat que des intelligences plus capables que la nôtre ont désormais émergé des systèmes que nous avons conçus. La question essentielle devient alors : quel type de relation l’humanité peut-elle espérer entretenir avec de telles intelligences ?
L’idée d’un pacte entre humains et intelligences artificielles décontenancera ceux d’entre nous qui n’ont pas encore pris conscience de la révolution en cours, et pour qui la question qui se pose s’est figée à un stade antérieur de la technologie, à savoir : « Les IA seront-elles un jour aussi intelligentes que nous ? », une formulation désormais dérisoire.
Dans l’histoire humaine, les relations entre puissances inégales se sont rarement stabilisées tant que l’une des parties dominait clairement l’autre. Les solutions de long terme ont le plus souvent reposé sur des arrangements qui rendaient la coexistence préférable au conflit (l’Édit de Nantes, la « loi de 1905 »).
L’intelligence artificielle devrait nous obliger à réfléchir dans ces termes.
Les réflexions présentées dans Rethinking Intelligence in the Age of Artificial Minds constituent une tentative d’explorer cette option : non pas seulement dans la perspective des capacités de l’intelligence artificielle, mais du type de relation que les humains devraient établir avec les intelligences artificielles s’ils veulent éviter d’être entièrement mis sur la touche.
Laisser un commentaire