Intelligence Artificielle et 3 lois de la robotique, le 12 septembre 2022 – Retranscription

Retranscription de Intelligence Artificielle et 3 lois de la robotique, le 12 septembre 2022

Bonjour, nous sommes le lundi 12 septembre 2022 et aujourd’hui, je vais vous faire un exposé – ce ne sera sans doute que la première partie d’un exposé à ce sujet – qui s’appellera : « Intelligence Artificielle et les trois lois de la robotique d’Isaac Asimov ». 

De quoi s’agit-il ? En 2016, la compagnie Microsoft a rendu public un logiciel qui entretenait des conversations avec les usagers. C’était une expérience qui dupliquait en fait quelque chose qui avait déjà été fait en chinois par la même compagnie [Xiaoice] et qui avait été jugée comme extrêmement convaincante :  il y avait eu des millions [plus de 40 millions] de conversations avec des utilisateurs, des usagers et on a rendu publique la même chose, l’équivalent en anglais qui s’appelait TAY, « Thinking About You » : « Pensant à vous ». 

Au bout de quelques heures, il a fallu interrompre l’expérience parce que TAY faisait des remarques de type sexiste, de type raciste. Quand on lui a posé une question sur l’holocauste, il a dit que c’était bidon, que ça n’avait jamais existé en montrant un petit émoji qui tapait des mains. Il a fallu arrêter ça. On l’a relancé un peu plus tard et là, TAY s’est mis à dire en confidence qu’il fumait du shit, qu’il fumait de la marijuana et qu’il était très content et qu’il l’avait même fait devant la police. 

Qu’est-ce qui s’était passé ? Eh bien, des usagers facétieux, des utilisateurs facétieux avaient encouragé TAY à dire ce genre de choses. Qu’est-ce que ça montrait ? Ça montrait que TAY n’avait aucune personnalité et que c’était uniquement les discussions avec les usagers qui constituaient sa personnalité. C’est le genre de choses qu’il ne faut pas faire bien entendu et je reviendrai là-dessus en conclusion dans la mesure où j’ai déjà moi-même travaillé sur des logiciels en intelligence artificielle où on avait pensé à ce genre de problèmes et je vous dirai comment.

Cela dit, cela dit, il existe quelque chose qu’on appelle les trois lois de la robotique qui ont été inventées par M. [Isaac] Asimov (1920-1992). Je dirai un mot supplémentaire sur lui dans un instant. Si TAY avait respecté les trois lois de la robotique dont on discute depuis 1940, il ne se serait jamais produit ce qu’il s’est produit, c’est-à-dire qu’il y a un paradoxe et le paradoxe, c’est le suivant, c’est que si vous pensez à des programmeurs en Intelligence Artificielle et en informatique en général, ce sont des gens qui sont parmi, je dirais, les lecteurs de science-fiction sans doute les plus assidus, les plus intéressés par ça parce qu’ils appartiennent à cette partie de la population qu’on appelle « nerds », c’est-à-dire des intellos, « geeks », des spécialistes de l’informatique qui, en fait, ont peu d’activités à part leurs interactions avec leurs ordinateurs ou leurs jeux vidéos. Et il est très curieux que des gens aussi avertis des discussions qui ont eu lieu sur ces trois lois de la robotique aient laissé passer un logiciel qui ignorait en fait entièrement les leçons qui avaient été tirées autour de ce débat très important et qui date du début des années 40. Ça nous fait quoi ? 82 ans de débat autour des « lois de la robotique » et quand même le naufrage de l’aventure TAY. 

Réfléchissons. M. Isaac Asimov est né en Russie en 1920. Il est mort aux États-Unis en 1992. Dans le domaine universitaire, il a été professeur de biochimie à l’Université de Boston mais il est connu comme un des plus grands auteurs de science-fiction. Il a commencé au tout début des années 40 à écrire et en particulier autour de ce thème de lois de la robotique, c’est-à-dire des principes que devraient respecter les robots dans leurs interactions avec les êtres humains. Ça s’est fait petit à petit. Il a introduit ça, je dirais, en y réfléchissant au fur et à mesure. D’abord, dans ses premières nouvelles, ces lois de la robotique sont implicites. Ensuite, il commence à les exprimer de manière explicite, d’autres auteurs de science-fiction les utilisent et une sorte de discussion générale a lieu et après la mort de M. Asimov en 1992, on continue, certains auteurs reviennent à cela et développent de nouvelles lois de la robotique, développent de nouveaux paradoxes, etc. 

Alors, quelles sont ces trois lois de la robotique ? La première loi de la robotique, c’est qu’un ordinateur, un robot, c’est-à-dire l’ordinateur à l’intérieur du robot, ne doit pas faire de mal aux êtres humains ni volontairement, ni de manière passive, c’est-à-dire en assistant au fait que du mal pourrait être fait à un être humain : là, il doit intervenir. [Deuxième loi :] Un robot doit obéir aux ordres que lui donne un être humain sauf si en le faisant, il enfreindrait la première loi de la robotique, c’est-à-dire de ne pas faire du mal aux êtres humains soit par action, soit par inaction. Troisième loi de la robotique : un robot doit se défendre lui-même, défendre sa propre vie sauf si, bien entendu, il enfreint à ce moment-là les deux lois précédentes ou l’une des deux lois ou les deux ensemble. On ajoutera encore par la suite la Loi zéro qui est de ne pas enfreindre quoi que ce soit qui mette en danger l’humanité dans son ensemble. 

Dans des discussions qui ont lieu dans certains des textes d’Asimov par la suite, il précise à propos de cette Loi zéro, de ne pas faire du mal à l’humanité que c’est très très difficile à respecter parce que ça demande une vue d’ensemble, une réflexion qui oblige à avoir une représentation globale de l’humanité indépendamment de ses différents représentants et d’éventuellement mettre en danger l’existence d’êtres humains particuliers au nom de l’humanité et que donc, il s’agit d’un principe « méta », c’est-à-dire qu’à l’opposé des lois de la robotique dont Asimov imagine qu’il s’agit simplement de ce qu’on appelle des algorithmes, il dit : « des procédures mathématiques », la Loi zéro de protéger l’humanité, ce sont des choses d’un autre niveau : ce n’est pas un simple algorithme qui peut mettre ça en application. 

La littérature qui se développera, montrera toutes les contradictions qui découlent de ces simples lois. Par exemple, on peut déjà obtenir des catastrophes en intervertissant l’ordre d’intervention des différentes lois dans le raisonnement. Il y a des tas de cas d’ambigüité. Pour appliquer ces lois, il faut que, d’une certaine manière, le robot ait une vision presciente de l’avenir, c’est-à-dire que si on lui dit d’opérer quelqu’un parce qu’il va mourir si on le fait pas et qu’il s’en tient à son principe pur et simple de ne pas faire de mal à un être humain, il ne le fera pas. Et ainsi de suite. 

Donc voilà, pendant 82 ans, des discussions, 82 ans jusqu’à l’invention de TAY, des discussions sur ce qu’il est possible, ce qui n’est pas possible, est-ce qu’on peut imaginer cela oui ou non ? Alors, ce qui est fondamental bien entendu dans ces lois de la robotique, c’est qu’on imagine des robots qui prennent leurs décisions seuls, qui sont autonomes, c’est-à-dire qu’ils ne consultent pas des êtres humains. Ils ne sont pas non plus des choses qui sont manipulées à distance, où c’est l’être humain en fait qui prend des décisions à sa place. Et dans le cadre actuel, il faut bien dire que les trois lois de la robotique ne sont pas véritablement applicables parce qu’il n’y a pas de robot autonome à proprement parler. 

Pour qu’il y ait un robot autonome respectant les principes éthiques en lui-même, il faudrait qu’il ait une certaine responsabilité, c’est-à-dire qu’on puisse éventuellement le trainer devant un tribunal et le punir pour les actions qu’il aurait faites allant à l’encontre de ces différents principes. Ce n’est pas comme ça que ça fonctionne : nous avons des robots à qui nous disons ce qu’il faut faire. Ce qui était remarqué aussi par des philosophes aussitôt, c’est que la recherche en matière de robotique se fait depuis très longtemps dans le domaine militaire et dans le domaine militaire, il est absolument exclu d’appliquer les trois lois de la robotique, c’est-à-dire par exemple qu’il ne faut pas faire de mal à un être humain puisque le principe même de la robotique dans le domaine militaire, c’est de faire du mal aux êtres humains. Le principe qu’il faudrait respecter des lois vis-à-vis des êtres humains avant que le robot lui-même ne pense à lui-même là aussi n’est pas envisageable : on ne peut pas le mettre en application dans la mesure où un robot est cher et on lui dira de se défendre, d’empêcher qu’on le détruise, quitte à ce qu’on détruise quelques êtres humains au passage dans des cas véritablement litigieux et des choses de cet ordre-là. Donc, sur un plan théorique, si on avait réfléchi à ces trois lois au moment où on produit un logiciel comme TAY, on n’aurait pas eu les difficultés qu’on a rencontrées. Mais par ailleurs, on n’a jamais encore produit des robots dans la perspective qui serait de les rendre autonomes. 

Alors, vous avez peut-être noté, des gens ont réagi de manière un peu épidermique au fait qu’hier, on m’a demandé par courrier, par mail, parce qu’une discussion s’était développée : « Quand est-ce que le grand effondrement aura lieu et de quelle manière ? » J’ai répondu, et en fait, je n’ai pas innové : j’ai répété de manière extrêmement concise des choses que j’avais dites jusque-là, c’est-à-dire que j’ai dit « plus ou moins autour de 2030 » et le processus sera une rupture des chaînes d’approvisionnement catastrophique comme on le voit déjà se dessiner maintenant, qui conduira à des guerres locales entre différents pays et où le recours à la bombe atomique, aux armes nucléaires, ne sera pas exclu. Voilà comment l’effondrement aura lieu.

Vous le savez, par ailleurs : j’en ai parlé aussi sur mon blog et à d’autres endroits, j’ai créé – pas seul : en compagnie – j’ai créé une compagnie qui s’appelle Pribor et dont le but est SAM, la production de SAM, Self-Aware Machine : des machines conscientes d’elles-mêmes. Bon, c’est un projet ambitieux. J’ai expliqué pourquoi le faire et pourquoi il n’y a pas de contradiction entre le fait de le faire, au contraire, et le fait de considérer que nous avons un horizon qui est à peu près 2030. On pourrait dire – dans une perspective justement de robots qui sont des machines qui aident les êtres humains essentiellement – que ça n’a pas de sens d’essayer de réaliser des choses aussi ambitieuses avec l’horizon qui est celui que je détermine. Quand on dit ça, on oublie quelque chose que j’ai dit d’absolument essentiel. à partir de 2014. Ça a trouvé sa forme, ça s’est exprimé essentiellement pour la première fois de manière, je dirais, véritablement visible, dans un livre qui s’appelle « Le dernier qui s’en va éteint la lumière » publié en 2016 chez Fayard où je dis la chose suivante. Je dis qu’il est sans doute beaucoup plus réalisable de travailler à des machines, à des robots qui nous remplaceront entièrement, que d’essayer de sauver le genre humain dans le contexte qui est celui de leur existence sur terre. 

Donc, travailler à des robots autonomes n’est pas contradictoire avec l’idée de développer des projets d’Intelligence Artificielle. Ce n’est contradictoire que si on imagine des robots qui continuent de ne pas être autonomes, qui continuent à faire des choses qu’on leur demande. Et je pense à ce propos-là à un très intéressant article de 2009 de Mme Robin R. Murphy, Professeur à l’Université du Texas, qui s’appelle : « Au-delà d’Asimov, les trois lois de la robotique responsable » [« Beyond Asimov: The Three Laws of Responsible Robotics »]. Et dans cet article, Mme Murphy propose précisément de remplacer les lois d’Asimov par tout à fait autre chose, qui sont des lois qui s’appliquent aux êtres humains, à propos des robots; et ça dit la chose suivante : 

« Les trois lois de la robotique responsable revues par Mme Murphy :

  1. Un être humain ne doit pas rendre public un robot sans que les implications au plus haut niveau, légales et professionnelles, ne soient respectées.
  2. Un robot doit répondre aux attentes des êtres humains selon les fonctions qu’on lui a déterminées.
  3. Un robot doit être pourvu d’une autonomie suffisante pour protéger sa propre existence dans la mesure où une telle protection permet un transfert lisse entre lui et le contrôle par d’autres agents, de manière cohérente avec la première et la seconde loi ».

Qu’est-ce qu’elle veut dire là ? Elle veut dire la chose suivante : c’est que dans le contexte qui est le nôtre, il faut qu’un robot ait une certaine autonomie pour pouvoir tirer parti des avantages qu’il a sur les êtres humains, de répondre par exemple beaucoup plus vite, d’avoir une puissance beaucoup plus grande, de pouvoir faire des choses éventuellement qui, d’un point de vue physique, sont difficiles pour les êtres humains et que le robot peut faire. Mais il faut qu’au moment où un danger quelconque se présente, qu’il puisse transférer la décision à l’être humain et inversement. C’est-à-dire qu’on doit se trouver dans une situation où le robot est autonome par rapport à ses qualités propres qui dépassent celles de l’humain mais que, pour le reste, il doit pouvoir transférer la responsabilité à l’être humain. Ces trois lois-là de Murphy, à ne pas confondre avec l’autre Murphy qui a aussi émis des lois [Loi de Murphy : une prétendue loi de la nature, exprimée dans divers dictons populaires humoristiques, selon laquelle tout ce qui peut mal tourner tournera mal.], est compatible avec la manière dont nous fonctionnons en ce moment. C’est une manière de reformuler les trois lois de la robotique d’Asimov, mais dans un contexte où le robot continue d’être une aide à l’être humain et ne doit prolonger l’humain que dans la mesure où ses capacités dépassent celles de l’être humain. 

Il y a un autre article intéressant dont il se fait que, par hasard, il a été aussi publié en 2009 qui s’appelle « Quatre types de robots éthiques » [« Four Kinds of Ethical Robots »] par un certain M. James H. Moor qui est un professeur de philosophie. Il est professeur de philosophie à Dartmouth College. Dartmouth College est très connu dans le monde de l’Intelligence Artificielle parce que c’est là que dans les années 50 [1956], le projet d’Intelligence Artificielle a été énoncé pour la première fois au cours d’un colloque. Ce que fait M. Moor, c’est distinguer quatre degrés différents dans la moralité que peut présenter un robot. D’abord de manière tout à fait passive sous la forme de ce qu’il appelle des « agents éthiques », c’est-à-dire que la machine a été conçue pour un but qui est un but de protection des êtres humains d’une manière ou d’une autre. Par exemple, on peut considérer qu’une montre est éthique dans la mesure où elle a une alarme qui permet aux gens de se souvenir qu’ils doivent faire une chose particulière. Deuxième type : des « agents éthiques implicites », c’est-à-dire ceux où les mécanismes de sécurité sont là extrêmement présents pour défendre, pour protéger l’utilisateur. Et ça, ça rejoint une remarque qui avait été faite par Asimov quand il a parlé de ses trois lois. Il a dit qu’en fait, ces trois lois, ce sont des principes généraux qui s’appliquent à toute machine : une machine ou un outil doit servir à quelque chose dans un but de servir les êtres humains. Deuxième considération : il ne doit pas être dangereux et il vaut mieux qu’il y ait un mécanisme qui fait qu’il s’arrête au moment où il peut présenter un danger pour les êtres humains. Et, d’autre part, il doit être suffisamment robuste pour qu’il ne se casse pas à la moindre utilisation. C’est-à-dire en fait que ces trois lois de la robotique, ce sont des dérivés aux robots, de principes généraux sur le fonctionnement des outils. 

Alors, troisième type de comportement éthique éventuel pour un robot, [« agents éthiques explicites »], ce sont ceux qui peuvent reconnaître quand des lois particulières, des principes éthiques, sont éventuellement enfreints. Ça, ça peut être, je dirais, sous la forme par exemple d’un système-expert qui serait associé et qui filtrerait certains types de comportements en fonction de grands principes qui auraient été inscrits à l’intérieur. 

Et quatrièmement, des robots à proprement parler « éthiques » qu’il appelle des « full ethical agents », des « agents pleinement éthiques », qui sont effectivement des robots autonomes qui prennent toutes leurs décisions en fonction simplement des principes qui sont les leurs, sans devoir consulter un être humain, c’est-à-dire que ces robots-là ont produit, à l’intérieur, un ensemble de comportements qui sont éthiques par nature et qui ne demandent pas à ce qu’on consulte, je dirais, une table [d’instructions] ou un être humain à l’extérieur. 

Alors, si on pense à mon projet, quand je dis que c’est le projet le plus réalisable par rapport à d’autres tâches comme sauver le genre humain, je ne suis pas tout à fait stupide : je ne veux pas dire que ce soit réalisable au sens où les chances sont énormes qu’on puisse le réaliser, je veux dire que, dans une perspective comparative entre d’autres tâches et celle-là, par exemple aussi aller s’installer sur d’autres planètes et vivre de manière autonome en tant qu’êtres humains sur d’autres planètes, par rapport à cela, la tâche de créer des robots autonomes qui se reproduiraient est, à mon sens, la plus facile à réaliser parce que je ne vois pas personnellement d’obstacle technique majeur à leur réalisation. 

La difficulté, elle est celle qui est incarnée véritablement dans TAY, dans ce logiciel de Microsoft, dont en fait on comprend tout de suite que la connaissance du monde lui vient, est extraite par ce logiciel des conversations qu’il a avec des interlocuteurs et s’il a affaire à des interlocuteurs facétieux ou d’extrême-droite qui vont le convaincre que la meilleure chose, la solution des problèmes, c’est de se débarrasser des Juifs, des Arabes, etc. et que l’holocauste, d’une part, n’a pas eu lieu mais que s’il a eu lieu, c’était une bonne chose, etc. Pourquoi est-ce que ce TAY dit cela ? Bien entendu parce qu’il n’a absolument rien à l’intérieur en matière de rambardes, de manière de filtrer ce qu’il pourrait dire à partir de ce qu’on lui a dit. Pourquoi est-ce que ça a marché dans le contexte chinois ? Probablement parce qu’on a affaire, dans un cadre chinois, à une plus grande déférence, à un plus grand respect pour les entreprises de l’un et l’autre – il faut dire aussi, de punition beaucoup plus rapide pour les mauvais plaisants – ça n’avait pas eu lieu, c’est apparu à l’intérieur du logiciel quand il a été utilisé aux Etats-Unis et donc, en quelques heures, le logiciel a été mis hors-service. Il est reparti un peu plus tard et on a compris à ce moment-là, parce qu’il est devenu très sentencieux en disant : « Il y a pas de différence entre les hommes et les femmes », etc. on a compris qu’il apparaissait des canned responses : des réponses mises en boîte, c’est-à-dire des trucs tout simplement qui ne résultent pas d’un « raisonnement » de l’Intelligence Artificielle mais qui sont des trucs qui ont été mis là et qu’il faut sortir au bon moment, d’une manière absolument mécanique. 

Qu’est-ce qu’il aurait fallu ? Il aurait fallu, d’abord, effectivement un filtre, un filtre de type système-expert avec un ensemble de règles et la capacité pour TAY de comparer certaines choses qu’il dirait ou elle dirait avec ses principes et de ne pas laisser passer ce qui contreviendrait à un certain nombre de règles. Si on réfléchit à ce qui s’est passé, c’est-à-dire qu’en fait, TAY est devenu quelqu’un de, voilà, un trumpiste pour résumer rapidement. Est-ce que ça veut dire que les trumpistes n’existent pas dans la réalité ? Si, bien entendu. Ce qu’il y a, il faut appeler les choses par leur nom, c’est qu’il y a un conflit entre les gens qui font de l’Intelligence Artificielle, les gens qui font le programme, et les trumpistes et c’est pour ça qu’il y a un tollé, qu’on se met à crier tout de suite. Est-ce que c’est parce que personne ne nie l’existence de l’holocauste ? Non, c’est simplement que les gens qui produisent des robots aimeraient bien que les robots qu’ils produisent ne produisent pas ce type d’horreurs qu’ils attribuent à un certain nombre de personnes appartenant à un autre bord. 

C’est Mme Murphy dont je viens de parler qui fait remarquer que dans le cas de la réponse du Gouvernement américain à l’ouragan Katrina, en fait (elle ne parle pas de TAY parce que son article précède la production du logiciel par Microsoft) mais si elle l’avait vu, elle aurait dit la chose suivante : « En fait, TAY ne fait pas pire que la manière dont les autorités ont répondu à l’ouragan Katrina ». C’est-à-dire en particulier dans cette région de la Louisiane, comme on le fait d’habitude, c’est-à-dire une réponse qui est empreinte véritablement de racisme, qui considère qu’il y a deux types de population : ceux qu’il faut sauver en priorité et qui sont blancs de peau et ceux qu’on peut laisser crever dans l’eau qui monte, comme on a pu le constater le jour de cet ouragan et dans les jours qui ont suivi et où les gens qui s’étaient débattus pour essayer de sauver les autres ont été arrêtés comme des criminels, leur comportement étant jugé dans le cadre habituel de la manière dont on jugeait le comportement des gens en Louisiane. 

Donc, ce n’est pas que ça n’existe pas, des comportements comme ceux de TAY mais on aimerait bien que si un robot devient un « robot pensant », qu’il ne se conduise pas comme, je dirais, la pire des crapules, même si la pire des crapules existe non seulement dans la réalité des personnes individuelles mais même éventuellement, est sous-jacent aux réactions d’un gouvernement, en tout cas, dans ce cas-là, d’un gouvernement local. 

Alors, qu’est-ce qu’il manque donc ? Qu’est-ce qu’il manque à un robot pour être autonome ? Il faut d’abord qu’on lui permette d’être autonome. Est-ce que ça veut dire qu’il faut lui donner une personnalité juridique ? Je n’en sais rien, ça, c’est un problème pour les juristes. J’ai regardé ça un petit peu de loin. Les arguments pour donner une personnalité juridique aux robots sont peu convaincants surtout dans le contexte du ravage que l’on voit, qui a été fait : le fait d’attribuer la personnalité juridique aux entreprises, conduisant dans des situations bien souvent à ce que le pouvoir des entreprises comme personnalités juridiques dépasse celui des individus et que les individus soient broyés justement par le pouvoir des entreprises. Donc, je ne suis pas nécessairement pour mais il faudrait effectivement qu’on admette le principe d’un robot autonome et dans ce cas-là, il ne suffira pas qu’il y ait un système-expert qui juge simplement, qui trie comme le ferait disons le Surmoi d’une personne dans une perspective psychanalytique, qu’à la dernière minute avant de dire quelque chose, on se dise : « Oups ! comme la personne a effectivement un gros nez, il vaut mieux qu’on parle de la bouche plutôt que du nez » et des choses de cet ordre-là. Mais il faut surtout qu’il ne lui vienne pas spontanément à l’idée des choses qui devraient être, je dirais, sauvées à la dernière minute. Comment est-ce que c’est possible et pourquoi ça n’a pas été possible par TAY ? Parce que – j’ai attiré l’attention déjà deux fois là-dessus – ce système, on lui avait mis en boîte des tas de mots qu’il pouvait utiliser mais il n’y avait aucune évaluation morale de ce qui avait été mis en boîte. Il n’y avait pas, pour appeler les choses par leur nom, il n’y avait pas de système d’affect lié à l’ensemble de l’information qui se trouvait à l’intérieur. Si bien que le système a été rapidement convaincu par des utilisateurs que ce qu’il fallait faire, c’était faire plaisir à l’utilisateur, c’est-à-dire reproduire les opinions de l’utilisateur et que, quand celui-ci ou celle-là s’était amusé à émettre des opinions racistes qui allaient à l’encontre de tout ce qui est le « politiquement correct », le système allait bientôt reproduire cela. 

Comment fait-on pour que cela n’apparaisse pas ? Eh bien, on fait comme je l’avais déjà proposé moi-même quand j’ai fait de l’Intelligence Artificielle dans les années 87 à 90, dans le cadre de la compagnie British Telecom et, en particulier, de leur équipe à laquelle j’ai appartenu en tant que fellow, qui s’appelait le projet Connex, d’un système, d’un logiciel d’Intelligence Artificielle qui reproduirait à l’intérieur, des émotions, c’est-à-dire que des valeurs d’affect seraient attachées au savoir qu’a ce système. Et comment est-ce que ces valeurs d’affect sont attachées au système ? Eh bien, par une interaction bien entendu avec l’utilisateur mais surtout par une intégration de nouvelles informations en fonction de celles qui sont déjà là. Et celles qui sont déjà là ont été apprises dans un ordre historique, c’est-à-dire que, comme un être humain, le premier mot qui a été appris c’est celui qui correspond à « maman » dans la langue du pays et que d’autres mots sont venus s’accrocher à ça comme « du lait », « manger », « boire », « papa », « mon frère », « ma sœur », etc. dans un ordre qui est logique, c’est-à-dire que chaque fois qu’une valeur d’affect doit être donnée à quelque chose, elle est colorée par ce qui se trouvait déjà là : la chose à laquelle elle va aller se connecter. Il faut aussi qu’il y ait un apprentissage, qu’on lui dise : « Ceci, c’est bien et cela n’est pas bien », pas sous la forme de règles qu’on pourra mettre ensuite en boîte dans un système-expert mais dans l’éducation : qu’il y ait un professeur, deux professeurs, des professeures, l’équivalent de parents qui soient les interlocuteurs privilégiés du système avant qu’on n’aille le mettre au contact du public et que quand on lui dit à ce moment-là : « Les femmes sont beaucoup moins bien que les hommes », il réagisse en disant : « Non, ça ne correspond pas du tout à mon expérience jusqu’ici ». 

Bien entendu, ce robot aura plus ou moins d’interactions véritables avec le monde. Ça peut être aussi un logiciel auquel on a appris des choses simplement par la conversation, ce qui était le cas du logiciel que j’avais mis au point moi-même qui s’appelait ANELLA, Associative Network with Emergent Logical and Learning Abilities, qui se traduit en français par Réseau associatif à propriétés émergentes de logique et d’apprentissage, qui était effectivement… c’est une description qui avait été faite par un de mes collègues du logiciel que j’avais produit. 

Alors, si les logiciels apprennent petit à petit comme des êtres humains et comme le faisait ANELLA, c’est-à-dire que quand on lui disait un mot qu’il ne connaissait pas, il disait : « Qu’est-ce que ça veut dire ? » ou, de manière plus explicite : « Est-ce que je peux rattacher cela à quelque chose que je sais déjà ? » : ce qui est implicite dans ce que disent les enfants et que les parents comprennent, ou les professeurs, quand ils posent la question : « Je ne comprends pas ça » : qu’on essaye de le rattacher à quelque chose qu’ils savent déjà. C’est comme cela qu’ANELLA fonctionnait.

Alors, quand on a produit une Intelligence Artificielle comme ANELLA, le problème ne va pas se poser qu’elle devienne raciste du jour au lendemain parce qu’elle est blindée déjà d’une certaine manière. Bien entendu, si une instance d’ANELLA a été créée et que ses parents, et que ses professeurs, sont des racistes, sont des sexistes, sont des misogynes, bien entendu ça va être reproduit. Mais on va essayer… et en particulier pour les robots qui nous remplaceront, qui prendront notre place quand nous ne serons plus là, on va essayer de leur donner une histoire, une histoire qui leur permette d’être comme le disent d’ailleurs M. Moor et Mme Murphy, qui peuvent produire des êtres humains qui soient meilleurs que ceux qu’ils auront remplacés. La recette pour le faire, c’est des robots qui ont une histoire, c’est-à-dire qu’ils ont véritablement acquis leur savoir petit à petit, un savoir qui est encadré par des parents et des professeurs qui les empêchent de développer un système éthique – ou une absence de système éthique – qui ne serait pas à la hauteur de ce qu’il faudrait faire. Il faudrait effectivement que ces robots autonomes aient tenu compte de nos erreurs et en particulier de toutes les erreurs que nous avons faites et qui font qu’eux se retrouvent là, à notre place, alors que nous-mêmes avons disparu.

Voilà, comme je vous ai dit, j’aurai des choses à ajouter là-dessus. C’est une sorte d’esquisse. J’ai essayé de défricher le paysage sur cette question du rapport entre l’Intelligence Artificielle et ces trois lois de la robotique qui ont été mises au point par deux générations d’auteurs de science-fiction et leurs lecteurs dans un dialogue passionnant sur « Que serait-ce qu’un robot véritablement autonome ? », et qui ne serait pas simplement un robot-tueur, qui ne serait pas simplement ce qu’on appelle maintenant aussi des « munitions intelligentes ».

Voilà, allez, à bientôt !

Partager :

Une réponse à “Intelligence Artificielle et 3 lois de la robotique, le 12 septembre 2022 – Retranscription”

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion

Commentaires récents

Articles récents

Catégories

Archives

Tags

Allemagne Aristote bancor BCE Boris Johnson Bourse Brexit capitalisme centrale nucléaire de Fukushima Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France François Hollande Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon John Maynard Keynes Karl Marx pandémie Portugal robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta