{"id":134022,"date":"2022-09-21T22:08:08","date_gmt":"2022-09-21T20:08:08","guid":{"rendered":"https:\/\/www.pauljorion.com\/blog\/?p=134022"},"modified":"2022-09-21T22:10:46","modified_gmt":"2022-09-21T20:10:46","slug":"intelligence-artificielle-et-3-lois-de-la-robotique-le-12-septembre-2022-retranscription","status":"publish","type":"post","link":"https:\/\/www.pauljorion.com\/blog\/2022\/09\/21\/intelligence-artificielle-et-3-lois-de-la-robotique-le-12-septembre-2022-retranscription\/","title":{"rendered":"<b>Intelligence Artificielle et 3 lois de la robotique<\/b>, le 12 septembre 2022 &#8211; Retranscription"},"content":{"rendered":"<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Asimov-225x300.jpg\" alt=\"\" width=\"225\" height=\"300\" class=\"alignleft size-medium wp-image-133589\" srcset=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Asimov-225x300.jpg 225w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Asimov-768x1024.jpg 768w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Asimov-1152x1536.jpg 1152w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Asimov-1536x2048.jpg 1536w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Asimov-scaled.jpg 1920w\" sizes=\"auto, (max-width: 225px) 100vw, 225px\" \/><em>Retranscription de <a href=\"https:\/\/www.pauljorion.com\/blog\/2022\/09\/13\/video-intelligence-artificielle-et-3-lois-de-la-robotique\/\" target=\"_blank\" rel=\"noopener\"><b>Intelligence Artificielle et 3 lois de la robotique<\/b><\/a>, le 12 septembre 202. <\/em><\/p>\n<p class=\"p1\">Bonjour, nous sommes le lundi 12 septembre 2022 et aujourd\u2019hui, je vais vous faire un expos\u00e9 &#8211; ce ne sera sans doute que la premi\u00e8re partie d\u2019un expos\u00e9 \u00e0 ce sujet &#8211; qui s\u2019appellera\u00a0: \u00ab\u00a0Intelligence Artificielle et les trois lois de la robotique\u00a0\u00bb d\u2019Isaac Asimov.<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p class=\"p1\">De quoi s\u2019agit-il\u00a0? En 2016, la compagnie Microsoft a rendu public un logiciel qui entretenait des conversations avec les usagers. C\u2019\u00e9tait une exp\u00e9rience qui dupliquait en fait quelque chose qui avait d\u00e9j\u00e0 \u00e9t\u00e9 fait en chinois par la m\u00eame compagnie [Xiaoice] et qui avait \u00e9t\u00e9 jug\u00e9e comme extr\u00eamement convaincante :<span class=\"Apple-converted-space\">\u00a0 <\/span>y avait eu des millions [plus de 40 millions] de conversations avec des utilisateurs, des usagers et on a rendu publique la m\u00eame chose, l\u2019\u00e9quivalent en anglais qui s\u2019appelait TAY, \u00ab\u00a0Thinking About You\u00a0\u00bb : \u00ab\u00a0Pensant \u00e0 vous\u00a0\u00bb. Au bout de quelques heures, il a fallu interrompre l\u2019exp\u00e9rience parce que TAY faisait des remarques de type sexiste, de type raciste. Quand on lui posait une question sur l\u2019holocauste, il a dit que c\u2019\u00e9tait bidon, que \u00e7a n\u2019avait jamais exist\u00e9 en montrant un petit \u00e9moji qui tapait des mains. Il a fallu arr\u00eater \u00e7a. On l\u2019a relanc\u00e9 un peu plus tard et l\u00e0, TAY s\u2019est mis \u00e0 dire en confidence qu\u2019il fumait du shit, qu\u2019il fumait de la marijuana et qu\u2019il \u00e9tait tr\u00e8s content et qu\u2019il l\u2019avait m\u00eame fait devant la police. <\/p>\n<p><iframe loading=\"lazy\" class=\"aligncenter\" title=\"YouTube video player\" src=\"https:\/\/www.youtube.com\/embed\/0u7UeQZW3Bo\" width=\"700\" height=\"450\" frameborder=\"0\" allowfullscreen=\"allowfullscreen\"><\/iframe><\/p>\n<p>Qu\u2019est-ce qui s\u2019\u00e9tait pass\u00e9\u00a0? Eh bien, des usagers fac\u00e9tieux, des utilisateurs fac\u00e9tieux avaient encourag\u00e9 TAY \u00e0 dire ce genre de choses. Qu\u2019est-ce que \u00e7a montrait\u00a0? \u00c7a montrait que TAY n\u2019avait aucune personnalit\u00e9 et que c\u2019\u00e9tait uniquement les discussions avec les usagers qui constituaient sa personnalit\u00e9. Alors, c\u2019est le genre de choses qu\u2019il ne faut pas faire bien entendu et je reviendrai l\u00e0-dessus en conclusion dans la mesure o\u00f9 j\u2019ai d\u00e9j\u00e0 moi-m\u00eame travaill\u00e9 sur des logiciels en intelligence artificielle o\u00f9 on avait pens\u00e9 \u00e0 ce genre de probl\u00e8mes et je vous dirai comment.<\/p>\n<p class=\"p1\">Cela dit, cela dit, il existe quelque chose qu\u2019on appelle les trois lois de la robotique qui ont \u00e9t\u00e9 invent\u00e9es par M. Asimov. Je dirai un mot suppl\u00e9mentaire sur lui dans un instant. Si TAY avait respect\u00e9 les trois lois de la robotique dont on discute depuis 1940, il ne se serait jamais produit ce qu\u2019il s\u2019est produit, c\u2019est-\u00e0-dire qu\u2019il y a un paradoxe et le paradoxe, c\u2019est le suivant, c\u2019est que si vous pensez \u00e0 des programmeurs en Intelligence Artificielle et en informatique en g\u00e9n\u00e9ral, ce sont des gens qui sont parmi, je dirais, les lecteurs de science-fiction sans doute les plus assidus, les plus int\u00e9ress\u00e9s par \u00e7a parce qu\u2019ils appartiennent \u00e0 cette partie de la population qu\u2019on appelle Nerd, c\u2019est-\u00e0-dire des intellos, Geek, des sp\u00e9cialistes de l\u2019informatique qui, en fait, ont peu d\u2019activit\u00e9s \u00e0 part leurs interactions avec leurs ordinateurs ou leurs jeux vid\u00e9os et il est tr\u00e8s curieux, il est tr\u00e8s curieux que des gens aussi avertis des discussions qui ont eu lieu sur ces trois lois de la robotique aient laiss\u00e9 passer un logiciel qui ignorait en fait enti\u00e8rement les le\u00e7ons qui avaient \u00e9t\u00e9 tir\u00e9es autour de ce d\u00e9bat tr\u00e8s important et qui datait donc, qui date du d\u00e9but des ann\u00e9es 40. \u00c7a nous fait quoi\u00a0? 82 ans de d\u00e9bat autour des lois de la robotique et quand m\u00eame le naufrage de l\u2019aventure TAY.<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p class=\"p1\">R\u00e9fl\u00e9chissons. M. Isaac Asimov est n\u00e9 en Russie en 1920. Il est mort aux Etats-Unis en 1992. Dans le domaine universitaire, il a \u00e9t\u00e9 professeur de biochimie \u00e0 l\u2019Universit\u00e9 de Boston mais il est connu comme un des plus grands auteurs de science-fiction. Il a commenc\u00e9 voil\u00e0 au tout d\u00e9but des ann\u00e9es 40 \u00e0 \u00e9crire et en particulier autour de ce th\u00e8me de lois de la robotique, c\u2019est-\u00e0-dire des principes que devraient respecter les robots dans leurs interactions avec les \u00eatres humains. \u00c7a s\u2019est fait petit \u00e0 petit. Il a introduit \u00e7a, je dirais, en y r\u00e9fl\u00e9chissant au fur et \u00e0 mesure. D\u2019abord, dans ses premi\u00e8res nouvelles, ces lois de la robotique sont implicites. Ensuite, il commence \u00e0 les exprimer de mani\u00e8re explicite. D\u2019autres auteurs de science-fiction les utilisent et une sorte de discussion g\u00e9n\u00e9rale a lieu et apr\u00e8s la mort de M. Asimov en 1992, on continue, certains auteurs reviennent \u00e0 cela et d\u00e9veloppent de nouvelles lois de la robotique, d\u00e9veloppent de nouveaux paradoxes, etc.<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p class=\"p1\">Alors, quelles sont ces trois lois de la robotique\u00a0? La premi\u00e8re loi de la robotique, c\u2019est qu\u2019un ordinateur, un robot, c\u2019est-\u00e0-dire l\u2019ordinateur \u00e0 l\u2019int\u00e9rieur du robot, ne doit pas faire de mal aux \u00eatres humains ni volontairement, ni de mani\u00e8re passive, c\u2019est-\u00e0-dire en assistant au fait que du mal pourrait \u00eatre fait \u00e0 un \u00eatre humain, l\u00e0, il doit intervenir. Un robot doit ob\u00e9ir aux ordres que lui donne un \u00eatre humain sauf si en le faisant, il enfreindrait la premi\u00e8re loi de la robotique, c\u2019est-\u00e0-dire de ne pas faire du mal aux \u00eatres humains soit par inaction, soit par action, par action ou par inaction. Troisi\u00e8me loi de la robotique, un robot doit se d\u00e9fendre lui-m\u00eame, d\u00e9fendre sa propre vie sauf si, bien entendu, il enfreint \u00e0 ce moment-l\u00e0 les deux lois ou l\u2019une des deux lois ou les deux ensemble, pr\u00e9c\u00e9dentes. On ajoutera encore par la suite la loi z\u00e9ro qui est de ne pas enfreindre quoi que ce soit qui mette en danger l\u2019humanit\u00e9 dans son ensemble.<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p class=\"p1\">Alors, dans des discussions qui ont lieu dans certains des textes de Asimov par la suite, il pr\u00e9cise \u00e0 propos de cette loi z\u00e9ro de ne pas faire du mal \u00e0 l\u2019humanit\u00e9 que c\u2019est tr\u00e8s tr\u00e8s difficile \u00e0 respecter parce que \u00e7a demande une vue d\u2019ensemble, une r\u00e9flexion qui oblige \u00e0 avoir une repr\u00e9sentation globale de l\u2019humanit\u00e9 ind\u00e9pendamment de ses diff\u00e9rents repr\u00e9sentants et d\u2019\u00e9ventuellement mettre en danger l\u2019existence d\u2019\u00eatres humains particuliers au nom de l\u2019humanit\u00e9 et que donc, il s\u2019agit d\u2019un principe \u00ab\u00a0m\u00e9ta\u00a0\u00bb, c\u2019est-\u00e0-dire qu\u2019\u00e0 l\u2019oppos\u00e9 des lois de la robotique dont Asimov imagine qu\u2019il s\u2019agit simplement de ce qu\u2019on appelle des algorithmes, il dit \u00ab\u00a0des proc\u00e9dures math\u00e9matiques\u00a0\u00bb, la loi z\u00e9ro de prot\u00e9ger l\u2019humanit\u00e9, ce sont des choses d\u2019un autre niveau, qui ne sont pas, ce n\u2019est pas un simple algorithme qui peut mettre \u00e7a en application. La litt\u00e9rature d\u00e9veloppera toutes les contradictions qui existent \u00e0 partir des simples lois. Par exemple, on peut obtenir d\u00e9j\u00e0 des catastrophes en intervertissant l\u2019ordre d\u2019intervention des diff\u00e9rentes lois dans le raisonnement. Il y a des tas de cas d\u2019ambig\u00fcit\u00e9. Pour appliquer ces lois, il faut que, d\u2019une certaine mani\u00e8re, le robot ait une vision pr\u00e9sciente de l\u2019avenir, c\u2019est-\u00e0-dire que si on lui dit d\u2019op\u00e9rer quelqu\u2019un parce qu\u2019il va mourir si on le fait pas et qu\u2019il s\u2019en tient \u00e0 son principe pur et simple de ne pas faire de mal \u00e0 un \u00eatre humain, il ne le fera pas et ainsi de suite.<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p class=\"p1\">Donc voil\u00e0, pendant 82 ans, des discussions, 82 ans jusqu\u2019\u00e0 l\u2019invention de TAY, des discussions sur ce qu\u2019il est possible, ce qui n\u2019est pas possible, est-ce qu\u2019on peut imaginer cela oui ou non. Alors, ce qui est fondamental bien entendu dans ces lois de la robotique, c\u2019est qu\u2019on imagine des robots qui prennent les d\u00e9cisions seuls, qui sont autonomes, c\u2019est-\u00e0-dire qu\u2019ils ne consultent pas des \u00eatres humains. Ils ne sont pas non plus des choses qui sont manipul\u00e9es \u00e0 distance, o\u00f9 c\u2019est l\u2019\u00eatre humain en fait qui prend des d\u00e9cisions \u00e0 sa place et dans le cadre actuel, il faut bien dire que les trois lois de la robotique ne sont pas v\u00e9ritablement applicables parce qu\u2019il n\u2019y a pas de robot autonome \u00e0 proprement parler. Pour qu\u2019il y ait un robot autonome respectant les principes \u00e9thiques en lui-m\u00eame, il faudrait qu\u2019il ait une certaine responsabilit\u00e9, c\u2019est-\u00e0-dire qu\u2019on puisse \u00e9ventuellement le trainer devant un tribunal et le punir pour les actions qu\u2019il aurait faites \u00e0 l\u2019encontre de ces diff\u00e9rents principes. Ce n\u2019est pas comme \u00e7a que \u00e7a fonctionne. Nous avons des robots \u00e0 qui nous disons ce qu\u2019il faut faire. Ce qui \u00e9tait remarqu\u00e9 aussi par des philosophes aussit\u00f4t, c\u2019est que la recherche en mati\u00e8re de robotique se fait depuis tr\u00e8s longtemps dans le domaine militaire et dans le domaine militaire, il est absolument exclu d\u2019appliquer les trois lois de la robotique, c\u2019est-\u00e0-dire par exemple qu\u2019il ne faut pas faire de mal \u00e0 un \u00eatre humain puisque le principe m\u00eame de la robotique dans le domaine militaire, c\u2019est de faire du mal aux \u00eatres humains. Le principe qu\u2019il faudrait respecter des lois vis-\u00e0-vis des \u00eatres humains avant que le robot lui-m\u00eame ne pense \u00e0 lui-m\u00eame l\u00e0 aussi est mis en\u2026 n\u2019est pas possible. On ne peut pas le mettre en application dans la mesure o\u00f9 un robot est cher et on lui dira de se d\u00e9fendre, emp\u00eacher qu\u2019on le d\u00e9truise, quitte \u00e0 ce qu\u2019on d\u00e9truise quelques \u00eatres humains au passage dans des cas v\u00e9ritablement litigieux et des choses de cet ordre-l\u00e0. Donc, sur un plan th\u00e9orique, si on avait r\u00e9fl\u00e9chi \u00e0 ces trois lois au moment o\u00f9 on produit un logiciel comme TAY, on n\u2019aurait pas eu les difficult\u00e9s qu\u2019on a rencontr\u00e9es mais par ailleurs, on n\u2019a jamais encore produit des robots dans la perspective qui serait de les rendre autonomes.<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p class=\"p1\">Alors, vous avez peut-\u00eatre not\u00e9, des gens ont r\u00e9agi un petit peu, voil\u00e0, comment dire, de mani\u00e8re un peu \u00e9pidermique au fait qu\u2019hier, on m\u2019a demand\u00e9 par courrier, par mail, parce qu\u2019une discussion s\u2019\u00e9tait d\u00e9velopp\u00e9e : quand est-ce que le grand effondrement aura lieu et de quelle mani\u00e8re ? Bon, et j\u2019ai r\u00e9pondu. Et dans le sens, en fait, je n\u2019ai pas innov\u00e9, j\u2019ai r\u00e9p\u00e9t\u00e9 de mani\u00e8re extr\u00eamement concise les choses que j\u2019avais dites jusque-l\u00e0, c\u2019est-\u00e0-dire j\u2019ai dit plus ou moins autour de 2030 et le processus sera une rupture des cha\u00eenes d\u2019approvisionnement catastrophique comme on le voit d\u00e9j\u00e0 se dessiner maintenant qui conduira \u00e0 des guerres locales entre diff\u00e9rents pays et o\u00f9 le recours \u00e0 la bombe atomique, aux armes nucl\u00e9aires, ne sera pas exclu. Voil\u00e0 comment l\u2019effondrement aura lieu.<\/p>\n<p class=\"p1\">Alors, vous le savez, par ailleurs, j\u2019en ai parl\u00e9 aussi sur mon blog et \u00e0 d\u2019autres endroits, j\u2019ai cr\u00e9\u00e9 &#8211; pas seul : en compagnie &#8211; j\u2019ai cr\u00e9\u00e9 une compagnie qui s\u2019appelle Pribor et dont le but est SAM, la production de SAM, Self-Aware Machine, des machines conscientes d\u2019elles-m\u00eames. Bon, c\u2019est un projet ambitieux. J\u2019ai expliqu\u00e9 pourquoi le faire et pourquoi il n\u2019y a pas de contradiction entre le fait de le faire, au contraire, et le fait de consid\u00e9rer que nous avons un horizon qui est \u00e0 peu pr\u00e8s 2030. On pourrait dire, dans une perspective justement de robots qui sont des machines qui aident les \u00eatres humains essentiellement, que \u00e7a n\u2019a pas de sens d\u2019essayer de r\u00e9aliser des choses aussi ambitieuses avec l\u2019horizon qui est celui que je d\u00e9termine. Quand on dit \u00e7a, on oublie quelque chose que j\u2019ai dit d\u2019absolument essentiel. A partir de 2014, \u00e7a a trouv\u00e9 sa forme, \u00e7a s\u2019est exprim\u00e9 essentiellement pour la premi\u00e8re fois de mani\u00e8re, je dirais, v\u00e9ritablement visible dans un livre qui s\u2019appelle \u00ab\u00a0Le dernier qui s\u2019en va \u00e9teint la lumi\u00e8re\u00a0\u00bb publi\u00e9 en 2016 chez Fayard o\u00f9 je dis la chose suivante. Je dis qu\u2019il est sans doute beaucoup plus r\u00e9alisable de travailler \u00e0 des machines, \u00e0 des robots qui nous remplaceront enti\u00e8rement que d\u2019essayer de sauver le genre humain dans le contexte qui est celui de leur existence sur terre. Donc, travailler \u00e0 des robots autonomes n\u2019est pas contradictoire avec l\u2019id\u00e9e de d\u00e9velopper des projets d\u2019Intelligence Artificielle. Ce n\u2019est contradictoire que si on imagine des robots qui continuent de ne pas \u00eatre autonomes, qui continuent \u00e0 faire des choses qu\u2019on lui demande et je pense \u00e0 ce propos-l\u00e0, je vais essayer de le retrouver assez facilement je pense, \u00e0 un tr\u00e8s int\u00e9ressant\u2026 Sauf qu\u2019apparemment, ma souris \u00e9tait morte. Je ne sais pas \u2026 elle s\u2019est repos\u00e9e pendant que j\u2019\u00e9tais occup\u00e9. C\u2019est un article de 2009 de M. Robin R. Murphy, Professeur \u00e0 l\u2019Universit\u00e9 du Texas, qui s\u2019appelle \u00ab\u00a0Au-del\u00e0 d\u2019Asimov, les trois lois de la robotique responsable\u00a0\u00bb [\u00ab\u00a0Beyond Asimov: The Three Laws of Responsible Robotics\u00a0\u00bb et dans cet article, M.\u00a0Murphy propose pr\u00e9cis\u00e9ment de remplacer les lois d\u2019Asimov par tout \u00e0 fait autre chose qui sont des lois qui s\u2019appliquent aux \u00eatres humains, \u00e0 propos des robots; et \u00e7a dit la chose suivante\u00a0:<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p class=\"p1\">\u00ab\u00a0Les trois lois de la robotique responsable revues par M. Murphy\u00a0:<\/p>\n<ol class=\"ol1\">\n<li class=\"li2\">Un \u00eatre humain ne doit pas rendre public un robot sans que les implications au plus haut niveau, l\u00e9gales et professionnelles, ne soient respect\u00e9es.<\/li>\n<li class=\"li2\">Un robot doit r\u00e9pondre aux attentes des \u00eatres humains selon les fonctions qu\u2019on lui a d\u00e9termin\u00e9es.<\/li>\n<li class=\"li2\">Un robot doit \u00eatre pourvu d\u2019une autonomie suffisante pour prot\u00e9ger sa propre existence dans la mesure o\u00f9 une telle protection permet un transfert lisse entre lui et le contr\u00f4le par d\u2019autres agents, de mani\u00e8re coh\u00e9rente avec la premi\u00e8re et la seconde loi\u00a0\u00bb.<\/li>\n<\/ol>\n<p class=\"p1\">Qu\u2019est-ce qu\u2019il veut dire l\u00e0\u00a0? Il veut dire la chose suivante\u00a0: c\u2019est que dans le contexte qui est le n\u00f4tre, il faut qu\u2019un robot ait une certaine autonomie pour pouvoir tirer parti des avantages qu\u2019il a sur les \u00eatres humains, de r\u00e9pondre par exemple beaucoup plus vite, d\u2019avoir une puissance beaucoup plus grande, de pouvoir faire des choses \u00e9ventuellement qui, d\u2019un point de vue physique, sont difficiles pour les \u00eatres humains et que le robot peut faire mais il faut qu\u2019au moment o\u00f9 un danger quelconque se pr\u00e9sente, qu\u2019il puisse transf\u00e9rer la d\u00e9cision \u00e0 l\u2019\u00eatre humain et inversement. C\u2019est-\u00e0-dire qu\u2019on doit se trouver dans une situation o\u00f9 le robot est autonome par rapport \u00e0 ses qualit\u00e9s propres qui d\u00e9passent celles de l\u2019humain mais que, pour le reste, il doit pouvoir transf\u00e9rer la responsabilit\u00e9 \u00e0 l\u2019\u00eatre humain. Ces trois lois-l\u00e0 de Murphy, \u00e0 ne pas confondre avec l\u2019autre Murphy qui a aussi \u00e9mis des lois <span class=\"s1\">[Loi de Murphy : une pr\u00e9tendue loi de la nature, exprim\u00e9e dans divers dictons populaires humoristiques, selon laquelle tout ce qui peut mal tourner tournera mal.],<\/span> est compatible avec la mani\u00e8re dont nous fonctionnons en ce moment. C\u2019est une mani\u00e8re de reformuler les trois lois de la robotique d\u2019Asimov, mais dans un contexte o\u00f9 le robot continue d\u2019\u00eatre une aide \u00e0 l\u2019\u00eatre humain et ne doit prolonger l\u2019humain que dans la mesure o\u00f9 ses capacit\u00e9s d\u00e9passent celles de l\u2019\u00eatre humain.<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p class=\"p1\">Il y a un autre article int\u00e9ressant dont il se fait que, par hasard, il a \u00e9t\u00e9 aussi publi\u00e9 en 2009 qui s\u2019appelle \u00ab\u00a0Quatre types de robots \u00e9thiques\u00a0\u00bb [\u00ab\u00a0Four Kinds of Ethical Robots\u00a0\u00bb] par un certain M. <span class=\"s2\">James H. Moor<\/span> qui est un professeur de philosophie, professeur de philosophie \u00e0 Dartmouth College. Dartmouth College est tr\u00e8s connu dans le monde de l\u2019Intelligence Artificielle parce que c\u2019est l\u00e0 que dans les ann\u00e9es 50, le projet d\u2019Intelligence Artificielle a \u00e9t\u00e9 \u00e9nonc\u00e9 pour la premi\u00e8re fois au cours d\u2019un colloque. Ce que fait M. <span class=\"s2\">Moor<\/span>, c\u2019est distinguer quatre degr\u00e9s diff\u00e9rents dans la moralit\u00e9 que peut pr\u00e9senter un robot, d\u2019abord de mani\u00e8re tout \u00e0 fait passive sous la forme de ce qu\u2019il appelle des agents \u00e9thiques, c\u2019est-\u00e0-dire que la machine a \u00e9t\u00e9 con\u00e7ue pour un but qui est un but de protection des \u00eatres humains d\u2019une mani\u00e8re ou d\u2019une autre. Par exemple, on peut consid\u00e9rer qu\u2019une montre est \u00e9thique dans la mesure o\u00f9 elle a une alarme qui permet aux gens de se souvenir, comme celle que vous venez d\u2019entendre, qui permet aux gens de se souvenir qu\u2019ils doivent faire une chose particuli\u00e8re. Deuxi\u00e8me type : des agents \u00e9thiques implicites, c\u2019est-\u00e0-dire ceux o\u00f9 les m\u00e9canismes de s\u00e9curit\u00e9 sont l\u00e0 extr\u00eamement pr\u00e9sents pour se d\u00e9fendre, pour prot\u00e9ger l\u2019utilisateur et \u00e7a, \u00e7a rejoint une remarque qui avait \u00e9t\u00e9 faite par Asimov quand il a parl\u00e9 de ses trois lois. Il a dit, en fait, ces trois lois, ce sont des principes g\u00e9n\u00e9raux qui s\u2019appliquent \u00e0 toute machine. Une machine doit servir \u00e0 quelque chose dans un but de servir les \u00eatres humains ou un outil. Deuxi\u00e8me consid\u00e9ration : il ne doit pas \u00eatre dangereux et il vaut mieux qu\u2019il y ait un m\u00e9canisme qui fait qu\u2019il s\u2019arr\u00eate au moment o\u00f9 il peut pr\u00e9senter un danger pour les \u00eatres humains et, d\u2019autre part, il doit \u00eatre suffisamment robuste pour qu\u2019il ne se casse pas \u00e0 la moindre utilisation, c\u2019est-\u00e0-dire en fait que ces trois lois de la robotique, ce sont des d\u00e9riv\u00e9s aux robots de principes g\u00e9n\u00e9raux sur le fonctionnement des outils.<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p class=\"p1\">Alors, troisi\u00e8me type de comportement \u00e9thique \u00e9ventuel pour un robot, ce sont ceux qui peuvent reconna\u00eetre quand des lois particuli\u00e8res, des principes \u00e9thiques sont \u00e9ventuellement enfreints. \u00c7a, \u00e7a peut \u00eatre, je dirais, sous la forme par exemple d\u2019un syst\u00e8me expert qui serait associ\u00e9 et qui filtrerait certains types de comportements en fonction de grands principes qui auraient \u00e9t\u00e9 inscrits \u00e0 l\u2019int\u00e9rieur.<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p class=\"p1\">Et quatri\u00e8mement, des robots \u00e0 proprement parler \u00e9thiques qu\u2019il appelle des\u00a0\u00ab\u00a0full ethical agents\u00a0\u00bb, des agents pleinement \u00e9thiques qui sont effectivement des robots autonomes qui prennent toutes leurs d\u00e9cisions en fonction simplement des principes qui sont les leurs, sans devoir consulter un \u00eatre humain, c\u2019est-\u00e0-dire que ces robots-l\u00e0 ont produit, \u00e0 l\u2019int\u00e9rieur, un ensemble de comportements qui sont \u00e9thiques par nature et qui ne demandent pas \u00e0 ce qu\u2019on consulte, je dirais, une table ou un \u00eatre humain \u00e0 l\u2019ext\u00e9rieur.<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p class=\"p1\">Alors, si on pense \u00e0 mon projet, quand je dis que c\u2019est le projet le plus r\u00e9alisable par rapport \u00e0 d\u2019autres t\u00e2ches comme sauver le genre humain, je ne suis pas tout \u00e0 fait stupide : je ne veux pas dire que ce soit r\u00e9alisable au sens o\u00f9 les chances sont \u00e9normes qu\u2019on puisse le r\u00e9aliser, je veux dire que, dans une perspective comparative entre d\u2019autres t\u00e2ches et celle-l\u00e0, par exemple aussi aller s\u2019installer sur d\u2019autres plan\u00e8tes et vivre de mani\u00e8re autonome en tant qu\u2019\u00eatres humains sur d\u2019autres plan\u00e8tes, par rapport \u00e0 cela, la t\u00e2che de cr\u00e9er des robots autonomes qui se reproduiraient est, \u00e0 mon sens, la plus facile \u00e0 r\u00e9aliser parce que je ne vois pas personnellement d\u2019obstacle technique majeur \u00e0 leur r\u00e9alisation.<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p class=\"p1\">Alors, la difficult\u00e9, elle est celle qui est incarn\u00e9e v\u00e9ritablement dans TAY, dans ce logiciel de Microsoft, dont en fait on comprend tout de suite que la connaissance du monde lui vient, est extraite par ce logiciel des conversations qu\u2019il a avec des interlocuteurs et s\u2019il a affaire \u00e0 des interlocuteurs fac\u00e9tieux ou d\u2019extr\u00eame-droite qui vont le convaincre que la meilleure chose, voil\u00e0, la solution des probl\u00e8mes, c\u2019est de se d\u00e9barrasser des Juifs, des Arabes, etc. et que l\u2019holocauste, d\u2019une part, n\u2019a pas eu lieu mais que s\u2019il a eu lieu, c\u2019\u00e9tait une bonne chose, etc. Pourquoi est-ce que ce TAY dit cela\u00a0? Bien entendu parce qu\u2019il n\u2019a absolument rien \u00e0 l\u2019int\u00e9rieur en mati\u00e8re de rambardes, de mani\u00e8re de filtrer ce qu\u2019il pourrait dire \u00e0 partir de ce qu\u2019on lui a dit. Pourquoi est-ce que \u00e7a a march\u00e9 dans le contexte chinois\u00a0? Probablement parce qu\u2019on a affaire, dans un cadre chinois de plus grande d\u00e9f\u00e9rence, de plus grand respect pour les entreprises de l\u2019un et l\u2019autre, il faut dire aussi de punition beaucoup plus rapide pour les mauvais plaisants. \u00c7a n\u2019avait pas eu lieu, c\u2019est apparu \u00e0 l\u2019int\u00e9rieur du logiciel quand il a \u00e9t\u00e9 utilis\u00e9 aux Etats-Unis et donc, en quelques heures, le logiciel a \u00e9t\u00e9 mis hors-service. Il est reparti un peu plus tard et on a compris \u00e0 ce moment-l\u00e0, parce qu\u2019il est devenu tr\u00e8s sentencieux en disant\u00a0: \u00ab\u00a0Il y a pas de diff\u00e9rence entre les hommes et les femmes\u00a0\u00bb, on a compris qu\u2019il apparaissait des <span class=\"s2\"><i>canned<\/i> <i>responses<\/i><\/span> : des r\u00e9ponses mises en bo\u00eete, c\u2019est-\u00e0-dire des trucs tout simplement qui ne r\u00e9sultent pas d\u2019un \u00ab\u00a0raisonnement\u00a0\u00bb de l\u2019Intelligence Artificielle mais qui sont des trucs qui ont \u00e9t\u00e9 mis l\u00e0 et qu\u2019il faut sortir au bon moment, d\u2019une mani\u00e8re absolument m\u00e9canique.<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p class=\"p1\">Alors, qu\u2019est-ce qu\u2019il aurait fallu\u00a0? Il aurait fallu, d\u2019abord, je dirais, effectivement un filtre, un filtre de type syst\u00e8me-expert avec un ensemble de r\u00e8gles et la capacit\u00e9 pour TAY de comparer certaines choses qu\u2019il dirait ou elle dirait avec ses principes et de ne pas laisser passer ce qui contreviendrait \u00e0 un certain nombre de r\u00e8gles. Si on r\u00e9fl\u00e9chit \u00e0 ce qui s\u2019est pass\u00e9, c\u2019est-\u00e0-dire qu\u2019en fait, TAY est devenu quelqu\u2019un de, voil\u00e0, un trumpiste pour r\u00e9sumer rapidement. Est-ce que \u00e7a veut dire que les trumpistes n\u2019existent pas dans la r\u00e9alit\u00e9\u00a0? Si, bien entendu. Ce qu\u2019il y a, c\u2019est qu\u2019il y a, il faut appeler les choses par leur nom, c\u2019est qu\u2019il y a un conflit entre les gens qui font de l\u2019Intelligence Artificielle, les gens qui font le programme et les trumpistes et c\u2019est pour \u00e7a qu\u2019il y a un toll\u00e9, qu\u2019on se met \u00e0 crier tout de suite. Est-ce que c\u2019est parce que personne ne dit, nie l\u2019existence de l\u2019holocauste\u00a0? Non, c\u2019est simplement que les gens qui produisent des robots aimeraient bien que les robots qu\u2019ils produisent ne produisent pas ce type d\u2019horreurs qu\u2019ils attribuent \u00e0 un certain nombre de personnes appartenant \u00e0 un autre bord. C\u2019est M. Murphy dont je viens de parler qui fait remarquer que dans le cas de la r\u00e9ponse du Gouvernement am\u00e9ricain \u00e0 l\u2019ouragan Katrina, en fait, il ne parle pas de TAY parce qu\u2019en fait, son article pr\u00e9c\u00e8de la production du logiciel par Microsoft mais s\u2019il l\u2019avait vu, il aurait dit la chose suivante\u00a0: \u00ab\u00a0En fait, TAY ne fait pas pire que la mani\u00e8re dont les autorit\u00e9s ont r\u00e9pondu \u00e0 l\u2019ouragan Katrina\u00a0\u00bb, c\u2019est-\u00e0-dire en particulier dans cette r\u00e9gion de la Louisiane, comme on le fait d\u2019habitude, c\u2019est-\u00e0-dire une r\u00e9ponse qui est empreinte v\u00e9ritablement de racisme, qui consid\u00e8re qu\u2019il y a deux types de population\u00a0: ceux qu\u2019il faut sauver en priorit\u00e9 et qui sont blancs de peau et ceux qu\u2019on peut laisser crever dans l\u2019eau qui monte, comme on a pu le constater le jour de cet ouragan et dans les jours qui ont suivi et o\u00f9 les gens qui s\u2019\u00e9taient d\u00e9battus pour essayer de sauver les autres ont \u00e9t\u00e9 arr\u00eat\u00e9s comme des criminels, leur comportement \u00e9tant jug\u00e9, je dirais, dans le cadre habituel de la mani\u00e8re dont on jugeait le comportement des gens dans la Louisiane.<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p class=\"p1\">Donc, ce n\u2019est pas que \u00e7a n\u2019existe pas, des comportements comme ceux de TAY mais on aimerait bien que si un robot devient un robot pensant, qu\u2019il ne se conduise pas comme, je dirais, la pire des crapules, m\u00eame si la pire des crapules existe non seulement dans la r\u00e9alit\u00e9 des personnes individuelles mais m\u00eame \u00e9ventuellement, est sous-jacent aux r\u00e9actions d\u2019un gouvernement, en tout cas, dans ce cas-l\u00e0, d\u2019un gouvernement local.<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p class=\"p1\">Alors, qu\u2019est-ce qu\u2019il manque donc\u00a0? Qu\u2019est-ce qu\u2019il manque \u00e0 un robot pour \u00eatre autonome\u00a0? Il faut d\u2019abord qu\u2019on lui permette d\u2019\u00eatre autonome. Est-ce que \u00e7a veut dire qu\u2019il faut lui donner une personnalit\u00e9 juridique\u00a0? Je n\u2019en sais rien, \u00e7a, c\u2019est un probl\u00e8me pour les juristes. J\u2019ai regard\u00e9 \u00e7a un petit peu de loin. Les arguments pour donner une personnalit\u00e9 juridique aux robots sont peu convaincants surtout, je dirais, dans le contexte du ravage que l\u2019on voit, qui a \u00e9t\u00e9 fait, le fait d\u2019attribuer la personnalit\u00e9 juridique aux entreprises, conduisant dans des situations bien souvent \u00e0 ce que le pouvoir des entreprises comme personnalit\u00e9s juridiques d\u00e9passe celui des individus et que les individus soient broy\u00e9s justement par le pouvoir des entreprises. Donc, je ne suis pas n\u00e9cessairement pour mais il faudrait effectivement qu\u2019on admette, qu\u2019on admette le principe d\u2019un robot autonome et dans ce cas-l\u00e0, il ne suffira pas qu\u2019il y ait un syst\u00e8me-expert qui juge simplement, qui trie comme le ferait disons le Surmoi d\u2019une personne dans une perspective psychanalytique, qu\u2019\u00e0 la derni\u00e8re minute avant de dire quelque chose, on se dise\u00a0: \u00ab\u00a0Oups ! comme la personne a effectivement un gros nez, il vaut mieux qu\u2019on parle de la bouche plut\u00f4t que du nez\u00a0\u00bb et des choses de cet ordre-l\u00e0 mais il faut surtout qu\u2019il ne lui vienne pas spontan\u00e9ment \u00e0 l\u2019id\u00e9e des choses qui devraient \u00eatre, je dirais, sauv\u00e9es \u00e0 la derni\u00e8re minute. Comment est-ce que c\u2019est possible et pourquoi \u00e7a n\u2019a pas \u00e9t\u00e9 possible par TAY\u00a0? Parce que &#8211; j\u2019ai attir\u00e9 l\u2019attention d\u00e9j\u00e0 deux fois l\u00e0-dessus &#8211; ce syst\u00e8me ne savait des choses, on lui avait mis en bo\u00eete des tas de mots qu\u2019il pouvait utiliser mais il n\u2019y avait aucune \u00e9valuation morale de ce qui avait \u00e9t\u00e9 mis en bo\u00eete. Il n\u2019y avait pas, pour appeler les choses par leur nom, il n\u2019y avait pas de syst\u00e8me d\u2019affect li\u00e9 \u00e0 l\u2019ensemble de l\u2019information qui se trouvait \u00e0 l\u2019int\u00e9rieur. Si bien que le syst\u00e8me a \u00e9t\u00e9 rapidement convaincu par les utilisateurs que ce qu\u2019il fallait faire, c\u2019\u00e9tait faire plaisir \u00e0 l\u2019utilisateur, c\u2019est-\u00e0-dire reproduire les opinions de l\u2019utilisateur et que, quand celui-ci ou celle-ci s\u2019\u00e9tait amus\u00e9 \u00e0 \u00e9mettre des opinions racistes qui allaient \u00e0 l\u2019encontre de tout ce qui est le \u00ab\u00a0politiquement correct\u00a0\u00bb, le syst\u00e8me allait bient\u00f4t reproduire cela.<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p class=\"p1\">Comment fait-on, comment fait-on pour que cela n\u2019apparaisse pas\u00a0? Eh bien, on fait comme je l\u2019avais d\u00e9j\u00e0 propos\u00e9 moi-m\u00eame quand j\u2019ai fait de l\u2019Intelligence Artificielle dans les ann\u00e9es 87 \u00e0 90, dans le cadre de la compagnie British Telecom et, en particulier, de leur \u00e9quipe \u00e0 laquelle j\u2019ai appartenu en tant que, voil\u00e0, en tant que\u00a0<span class=\"s2\"><i>fellow<\/i>,<\/span> qui s\u2019appelait le projet Connex, d\u2019un syst\u00e8me, d\u2019un logiciel d\u2019Intelligence Artificielle qui reproduirait \u00e0 l\u2019int\u00e9rieur des \u00e9motions, c\u2019est-\u00e0-dire que des valeurs d\u2019affect seraient attach\u00e9es au savoir qu\u2019a ce syst\u00e8me. Et comment est-ce que ces valeurs d\u2019affect sont attach\u00e9es au syst\u00e8me\u00a0? Eh bien, par une interaction bien entendu avec l\u2019utilisateur mais surtout par une int\u00e9gration de nouvelles informations en fonction de celles qui sont d\u00e9j\u00e0 l\u00e0 et celles qui sont d\u00e9j\u00e0 l\u00e0 ont \u00e9t\u00e9 apprises dans un ordre historique, c\u2019est-\u00e0-dire que, comme un \u00eatre humain, le premier mot qui a \u00e9t\u00e9 appris c\u2019est celui qui correspond \u00e0 \u00ab\u00a0maman\u00a0\u00bb dans la langue du pays et que d\u2019autres mots sont venus s\u2019accrocher \u00e0 \u00e7a comme du lait, manger, boire, papa, mon fr\u00e8re, ma s\u0153ur, etc. dans un ordre qui est logique, c\u2019est-\u00e0-dire que chaque fois qu\u2019une valeur d\u2019affect doit \u00eatre donn\u00e9e \u00e0 quelque chose, elle est color\u00e9e par ce qui se trouvait d\u00e9j\u00e0 l\u00e0 et la chose \u00e0 laquelle elle va aller se connecter. Il faut aussi qu\u2019il y ait un apprentissage, qu\u2019on lui dise\u00a0: \u00ab\u00a0Ceci, c\u2019est bien et cela n\u2019est pas bien\u00a0\u00bb, pas sous la forme de r\u00e8gles qu\u2019on pourra mettre ensuite en bo\u00eete dans un syst\u00e8me-expert mais dans l\u2019\u00e9ducation, qu\u2019il y ait un professeur, deux professeurs, des professeures, l\u2019\u00e9quivalent de parents qui soient les interlocuteurs privil\u00e9gi\u00e9s du syst\u00e8me avant qu\u2019on n\u2019aille le mettre au contact du public et que quand on lui dit \u00e0 ce moment-l\u00e0\u00a0: \u00ab\u00a0Les femmes sont beaucoup moins bien que les hommes\u00a0\u00bb, il r\u00e9agisse en disant\u00a0: \u00ab\u00a0Non, \u00e7a ne correspond pas du tout \u00e0 mon exp\u00e9rience jusqu\u2019ici\u00a0\u00bb.<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p class=\"p1\">Bien entendu, ce robot aura plus ou moins d\u2019interactions v\u00e9ritables avec le monde. \u00c7a peut \u00eatre aussi un logiciel auquel on a appris des choses simplement par la conversation, ce qui \u00e9tait le cas du logiciel que j\u2019avais mis au point moi-m\u00eame qui s\u2019appelait ANELLA, <i>Associative Network with Emergent Logical and Learning Abilities<\/i>, qui se traduit en fran\u00e7ais par R\u00e9seau associatif \u00e0 propri\u00e9t\u00e9s \u00e9mergentes de logique et d\u2019apprentissage, qui \u00e9tait effectivement\u2026 Bon, c\u2019est une description qui avait \u00e9t\u00e9 faite par un de mes coll\u00e8gues du logiciel que j\u2019avais produit.<span class=\"Apple-converted-space\">\u00a0<\/span><\/p>\n<p class=\"p1\">Alors, si les logiciels apprennent petit \u00e0 petit comme des \u00eatres humains et comme le faisait ANELLA, c\u2019est-\u00e0-dire que quand on lui disait un mot qu\u2019il ne connaissait pas, il disait\u00a0: \u00ab\u00a0Qu\u2019est-ce que \u00e7a veut dire\u00a0?\u00a0\u00bb ou, de mani\u00e8re plus explicite\u00a0: \u00ab\u00a0Est-ce que je peux rattacher cela \u00e0 quelque chose que je sais d\u00e9j\u00e0\u00a0?\u00a0\u00bb, bon ce qui est implicite dans ce que disent les enfants et que les parents comprennent, ou les professeurs, quand ils posent la question\u00a0: \u00ab\u00a0Je ne comprends pas \u00e7a\u00a0\u00bb, qu\u2019on essaye de rattacher \u00e0 quelque chose qu\u2019ils savent d\u00e9j\u00e0. C\u2019est comme cela qu\u2019ANELLA fonctionnait.<\/p>\n<p class=\"p1\">Alors, quand on a produit ANELLA, une Intelligence Artificielle comme ANELLA, le probl\u00e8me va pas se poser qu\u2019elle devienne raciste du jour au lendemain parce qu\u2019elle est blind\u00e9e d\u00e9j\u00e0 d\u2019une certaine mani\u00e8re. Bien entendu, si une instance d\u2019ANELLA a \u00e9t\u00e9 cr\u00e9\u00e9e et que ses parents, et que ses professeurs, sont des racistes, sont des sexistes, sont des misogynes, bien entendu \u00e7a va \u00eatre reproduit mais on va essayer, je dirais, et en particulier pour les robots qui nous remplaceront, qui prendront notre place quand nous ne serons plus l\u00e0, on va essayer de leur donner une histoire, une histoire qui leur permette d\u2019\u00eatre comme le disent d\u2019ailleurs M. Moore et M. Murphy, qui peuvent produire des \u00eatres humains qui soient meilleurs que ceux qu\u2019ils auront remplac\u00e9s. La recette pour le faire, c\u2019est des robots qui ont une histoire, c\u2019est-\u00e0-dire qu\u2019ils ont v\u00e9ritablement acquis leur savoir petit \u00e0 petit, un savoir qui est encadr\u00e9 par des parents et des professeurs qui les emp\u00eachent de d\u00e9velopper un syst\u00e8me \u00e9thique &#8211; ou une absence de syst\u00e8me \u00e9thique -, un syst\u00e8me \u00e9thique qui ne serait pas \u00e0 la hauteur de ce qu\u2019il faudrait faire. Il faudrait effectivement que ces robots autonomes aient tenu compte de nos erreurs et en particulier de toutes les erreurs que nous avons faites et qui font qu\u2019eux se retrouvent l\u00e0, \u00e0 notre place alors que nous-m\u00eames avons disparu.<\/p>\n<p class=\"p1\">Voil\u00e0, comme je vous ai dit, j\u2019aurai des choses \u00e0 ajouter l\u00e0-dessus. C\u2019est une sorte d\u2019esquisse. J\u2019ai essay\u00e9 de d\u00e9fricher le paysage sur cette question du rapport entre l\u2019Intelligence Artificielle et ces trois lois de la robotique qui ont \u00e9t\u00e9 mises au point par deux g\u00e9n\u00e9rations d\u2019auteurs de science-fiction et leurs lecteurs dans un dialogue passionnant sur \u00ab\u00a0Que serait-ce qu\u2019un robot v\u00e9ritablement autonome\u00a0\u00bb, et qui ne serait pas simplement un robot tueur, qui ne serait pas simplement ce qu\u2019on appelle maintenant aussi des \u00ab\u00a0munitions intelligentes\u00a0\u00bb.<\/p>\n<p class=\"p3\">Voil\u00e0, allez, \u00e0 bient\u00f4t\u00a0!<\/p>\n","protected":false},"excerpt":{"rendered":"<p><img loading=\"lazy\" decoding=\"async\" src=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Asimov-225x300.jpg\" alt=\"\" width=\"225\" height=\"300\" class=\"alignleft size-medium wp-image-133589\" srcset=\"https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Asimov-225x300.jpg 225w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Asimov-768x1024.jpg 768w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Asimov-1152x1536.jpg 1152w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Asimov-1536x2048.jpg 1536w, https:\/\/www.pauljorion.com\/blog\/wp-content\/uploads\/Asimov-scaled.jpg 1920w\" sizes=\"auto, (max-width: 225px) 100vw, 225px\" \/><em>Retranscription de <a href=\"https:\/\/www.pauljorion.com\/blog\/2022\/09\/13\/video-intelligence-artificielle-et-3-lois-de-la-robotique\/\" target=\"_blank\" rel=\"noopener\"><b>Intelligence Artificielle et 3 lois de la robotique<\/b><\/a>, le 12 septembre 202. <\/em><\/p>\n<p class=\"p1\">Bonjour, nous sommes le lundi 12 septembre 2022 et aujourd\u2019hui, je vais vous faire un expos\u00e9 &#8211; ce ne sera sans doute que la premi\u00e8re partie d\u2019un expos\u00e9 [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[13,9,14],"tags":[8886,1935,940,3327,8779,8885,3777,5670,8887],"class_list":["post-134022","post","type-post","status-publish","format-standard","hentry","category-intelligence-artificielle","category-psychanalyse","category-science-fiction","tag-3-lois-de-la-robotique","tag-anella","tag-intelligence-artificielle-2","tag-isaac-asimov","tag-pribor-io","tag-robotique","tag-robots","tag-science-fiction","tag-tay-microsoft"],"_links":{"self":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/134022","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/comments?post=134022"}],"version-history":[{"count":2,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/134022\/revisions"}],"predecessor-version":[{"id":134024,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/posts\/134022\/revisions\/134024"}],"wp:attachment":[{"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/media?parent=134022"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/categories?post=134022"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.pauljorion.com\/blog\/wp-json\/wp\/v2\/tags?post=134022"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}