Compte-rendu de Paul Jorion, Principes des systèmes intelligents, par Arthur Mary et Jimmy Baraglia

Dans un billet publié hier sur son propre site et ici, Alexis Toulet a l’amabilité de mentionner le rôle pionnier qu’a pu jouer mon livre Principes des systèmes intelligents dans l’Intelligence Artificielle francophone. Il a mis en lien un compte-rendu de ce livre que je reproduis ci-dessous ; sa publication originale se trouve ici.

1. L’ouvrage de Paul Jorion constitue une introduction rigoureuse et préalable à une réflexion et à un travail dans le champ de l’intelligence artificielle ‑ c’est à ce titre que nous le recommanderions comme lecture introductive à des étudiants en robotique. Il a le mérite de poser les problèmes d’ordre logique, psychologique et dans une moindre mesure anthropologique qui travaillent ce champ disciplinaire (mobilisant à ce titre une vaste érudition). La lecture des Principes des systèmes intelligents, presque vingt-cinq ans après leur première publication 1, fait apparaître au moins deux choses : la première, que ces réflexions ne semblent pas avoir (encore) été véritablement considérées par la communauté des chercheurs en intelligence artificielle (et tout particulièrement le recours à la métapsychologie freudo-lacanienne) ‑ à l’exception toutefois de quelques équipes de recherche s’inscrivant dans le courant de la robotique développementale cognitive qui explore le champ des systèmes s’auto-organisant par apprentissage en prenant au sérieux le rôle que joue le langage dans l’appareil psychique humain 2. La seconde, que la culture dans laquelle sont pris les locuteurs humains a évolué, si bien que l’utilisateur d’un système artificiellement intelligent au début des années 1990, n’est peut-être plus tout à fait le même que l’utilisateur des années 2010. En effet, les individus de nos sociétés tendent à se concevoir toujours plus sur le modèle de l’ordinateur, voire comme des systèmes algorithmiques de prise de décision 3. Le succès relatif de la psychologie cognitive dans la culture a bien dû participer à la diffusion d’un modèle de l’humain ; or, il vaut la peine de noter que cette psychologie repose sur le paradigme computationnel, soit ce qui affirme que l’esprit humain est comparable à un ordinateur traitant des informations, répondant (output) à des stimulations (input). D’un côté donc, une psychologie puisant dans les recherches en informatique ; de l’autre, des recherches en intelligence artificielle ou en robotique puisant (principalement) dans la psychologie des opérations cognitives 4. Ce n’est pas le moindre intérêt de l’ouvrage de Jorion que d’offrir une perspective faisant apparaître la complexité de l’intelligence humaine ou artificielle en soulignant l’hétérogénéité des lois du langage à tout substrat (organique ou informatique) 5.

2. Paul Jorion pose assez rapidement qu’un enjeu de la conception de systèmes artificiellement intelligents réside dans la rencontre de ces systèmes avec l’être humain. Et notamment, des enjeux que nous nommerions volontiers éthiques : la façon que l’utilisateur aura de se rapporter à la machine. Lui fait-il « confiance » ? Est-elle « crédible » ? Comment s’adresse-t-on à un interlocuteur artificiellement intelligent ? Jusqu’à quel point accepte-t-on l’idée d’une créativité artificielle ? Et en effet, on ne parle pas de la même façon selon qu’on s’adresse à un adulte, à un enfant, à un animal domestique ou à un robot 6 ; à croire que toute interlocution véhicule implicitement une théorie sur l’interlocuteur (voire le diagnostic tacite de sa forme de vie) 7. En tout cas, les Principes des systèmes intelligents ne visent pas expressément la simulation de l’humain, mais « se cantonne[nt] à l’exploration des capacités auto-organisantes d’un univers de mots » (p. 73).

3. Plusieurs idées importantes occupent le déploiement de la réflexion de l’auteur et retiennent particulièrement notre attention. Jorion discute en effet du concept d’intention (et l’exigence qu’un système intelligent puisse entendre l’intention au-delà d’une demande 8), des capacités logiques émergeant de systèmes mnésiques langagiers, des propriétés que doit avoir un système mnésique artificiel afin de s’engager dans un discours, négocier son savoir et énoncer le vrai (les précisions sur les différentes acceptions et statuts de la vérité sont précieuses 9). On apprend aussi que le « renforcement hebbien » (1949) avait été déjà pensé par Freud en 1895 (mais publié à titre posthume en 1950) sous le nom de « frayage », notion qu’il avait lui-même reprise à Exner (1894).

4. Une objection mérite néanmoins d’être formulée : la conception d’un système intelligent sur la base des principes énoncés par Jorion produirait-elle ou non un locuteur susceptible de s’étonner de ce qu’il dit (à l’occasion d’un lapsus par exemple 10) et susceptible de ce que Lacan a nommé « Acte », soit une manifestation sous-déterminée du sujet du langage faisant évènement dans le régime des pensées et de la parole et entrainant des effets de discours ? Pour le dire autrement, l’Acte est-il possible dans le cadre d’un tel système de contraintes logiques – qui certes génèrent des phénomènes sémantiques émergents. On pourrait se demander, non sans provocation, si l’acte suicidaire d’une intelligence artificielle (dont Lacan affirme qu’il est le seul acte qui réussisse) est rendu possible ? Peut-être interrogeons-nous ainsi simplement l’inclusion ou non du système artificiellement intelligent dans l’ordre des « êtres parlants tragiques », c’est-à-dire des êtres posant la question du sens de leur existence, s’interrogeant sur leur origine et sur leur fin 11 ‑ ce qui exigerait un système capable d’énoncer un discours véritablement sui-référentiel (condition préalable à tout acte suicidaire non-réflexe). Autre limite : concernant le statut de la croyance, il nous semble que le livre de Jorion manque peut-être de finesse et aurait gagné à recourir plus franchement à des auteurs néanmoins régulièrement mobilisés (Wittgenstein et Lacan, notamment), mais il s’agit, répétons-le, d’une étude largement exploratoire, portant sur des grands principes et sur des orientations encore peu considérées par la recherche en intelligence artificielle.

5. Nous nous sommes finalement demandé ce que serait la recension d’un ouvrage faite par une intelligence artificielle ‑ et les auteurs du présent compte-rendu revendiquent leur authentique humanité ! Il faudrait un système capable de lire l’ouvrage de Jorion et capable de le comprendre (et d’entendre ce qui excède ce livre), de le situer et de se situer dans un discours, dans une forme d’interlocution asymétrique (un auteur d’ouvrage, d’un côté, un lecteur-auteur de recension, de l’autre) 12. Un auteur artificiel de compte-rendu qui serait inspiré par les Principes de Jorion, mobiliserait le réseau mnésique de ses précédentes lectures pour alimenter un discours, tandis que sa mémoire grossirait des apports de chaque nouvel ouvrage soumis à son attention. Ainsi, répondrait-il à un texte et répondrait-il d’un acte de lecture original.

=======================

1  La première édition (chez Masson) date de [1989].

2  Cf. par exemple la récente étude de Katsushi Miura et col. (« Vowel Acquisition based on an Auto-Mirroring Bias with a Less Imitative Caregiver », Advanced Robotics, vol. 26, n° 1-2, pp. 23-44, 2012) interrogeant les capacités phonétiques auto-organisatrices d’un système apprenant de nouvelles voyelles. Ajoutons que Jorion n’était pas le seul avoir tenté des rapprochements entre Intelligence Artificielle et psychanalyse : cf. par exemple Sherry Turkle, « Artificial Intelligence and Psychoanalysis: A New Alliance », Daedalus Journal of the American Academy of Arts and Sciences, vol. 117, n° 1 : « Artificial Intelligence », 1988.

3  Cf. la chronique de Didier Pourquery sur l’expression « Ou pas… », Le Monde, 2 mars 2013, p. 24. L’ironie de la situation voudrait qu’un locuteur artificiellement intelligent devra peut-être, à l’avenir, pour être convaincant, être un locuteur se prenant (artificiellement) pour un ordinateur !

4  Dans sa conclusion, Jorion affirme une idée très similaire : « La recherche en intelligence artificielle est trop souvent intellectuellement incestueuse : elle cherche les solutions à ses problèmes dans sa propre littérature à l’exclusion de toute autre. » (p. 241).

5  On se souvient que la question voisine de l’hétérogénéité des mathématiques au substrat cérébral avait été discutée par Jean-Pierre Changeux et Alain Connes (Matière à pensée, Paris, Odile Jacob, 2008).

6  Pour le dire à la manière d’Emmanuel Levinas : quelle forme prend la mise en question de ma spontanéité par la présence d’une intelligence artificielle, ainsi que la mise en question d’une « spontanéité artificielle » par la présence d’un interlocuteur humain ? Toujours est-il qu’une équipe japonaise a mis en évidence le fait que des nourrissons de dix mois semblent s’attendre à ce qu’un adulte adresse la parole à un robot humanoïde : cf. Akiko Arita et alii, « Can we talk to robots? Ten-month-old infants expected interactive humanoid robots to be talked to by persons », Cognition, vol. 95, n 3, 2005.

7 On lira avec intérêt l’interview de Kate Darling, chercheuse au MIT, concernant la « torture » des robots : « Donnons des droits aux robots », Le Monde Science et Techno, 14 février 2013 ; ou encore l’expérience de Peter Kahn et col. (« Do People Hold a Humanoid Robot Morally Accountable for the Harm it Causes? », Session: Attitudes and Responses to Social Robots, 5-8 mars 2012, Boston) qui ont mis en place un dispositif expérimental dans lequel les participants étaient amenés à accuser un robot de mauvaise volonté, de mensonge (c’est donc qu’implicitement le robot était digne de ces accusations).

8  Pour reprendre un exemple d’Austin : à la question « pouvez-vous me passer le sel ? », il serait malheureux (unhappy) de répondre : « oui, je le peux ».

9  Jorion emprunte ces nuances principalement à la logique de la Chine ancienne, à Aristote, à la scolastique médiévale, à Austin et à Lacan.

10  Le chapitre sur l’autoréférence répond partiellement à cette objection.

11  À notre connaissance, ce questionnement n’a été traité de façon satisfaisante que par la (science-)fiction (soit précisément le phénomène sémantique complexe qu’est le fantasme).

12  On renverra ici au test de Turing (cf. Alan Turing, Jean-Yves Gérard, La machine de Turing, Paris, Seuil, 1999 ; Paul Jorion, « Turing, ou la tentation de comprendre », L’Homme, n° 153, 2000), ainsi qu’au cycle de nouvelles d’Asimov sur les robots.

Partager :