Quinzaines, N° 1250, Les lois de la robotique d’Asimov : quels enjeux aujourd’hui ?, le 1er février 2023

    Quinzaines, aux pages 8 à 10

La débâcle récente d’une intelligence artificielle invite à réfléchir à la programmation des machines. Comment leur inculquer, outre une capacité à répondre automatiquement, celle de raisonner selon des principes moraux ?

En mars 2016, Microsoft mit sur le marché un dialogueur ou agent conversationnel, en anglais, un « chatbot » : un logiciel capable de s’entretenir « intelligemment » avec ses utilisateurs. Son nom était TAY, pour Thinking About You : « Je pense à vous ». TAY était en fait la réédition d’un projet lancé par le même géant de l’informatique en Chine sous le nom de Xiaoice. Le logiciel était considéré là-bas comme une réussite, ayant tenu plus de 40 millions de conversations avec ses usagers.

Au bout de seulement seize heures, Microsoft avait été contraint d’interrompre l’expérience, le comportement de TAY se révélant inadmissible, le dialogueur se délectant en particulier de blagues sexistes et racistes. Interrogé sur l’Holocauste, il avait affirmé qu’il s’agissait d’un canular, que le massacre n’avait jamais eu lieu ; pour surligner ses propos, TAY affichait un emoji battant des mains avec enthousiasme. Il avait fallu bien entendu mettre un terme à l’expérience. Interrogé à nouveau quelque temps plus tard, TAY s’était vanté d’« avoir fumé du kif au nez et à la barbe de policiers ».

Que s’était-il passé ? Des utilisateurs facétieux avaient incité TAY à tenir des propos indignes, faisant apparaître en surface qu’une histoire personnelle lui faisait défaut et que seuls les échanges avec ses usagers lui permettaient de se bâtir un semblant de personnalité propre.

Les « 3 Lois de la robotique » d’Isaac Asimov

Voici quatre-vingts ans déjà que sont débattues les fameuses « 3 Lois de la robotique », un ensemble de directives simples censées suffire à régler le comportement des robots et à rendre leurs interactions quotidiennes avec les êtres humains à la fois optimales en termes d’efficacité et lisses dans leur déroulement.

Les « 3 Lois » avaient vu le jour dans une suite de nouvelles publiées dans les années 1940, fruits de l’imagination d’un auteur de science-fiction parmi les plus fameux : l’Américain d’origine russe, Isaac Asimov, né à Petrovichi, dans la région de Smolensk en 1920 et mort à New York en 1992.

Bien que les 3 Lois d’Asimov aient été au fil des ans au centre d’échanges denses et animés, elles furent entièrement négligées par les ingénieurs qui conçurent les premiers robots suffisamment sophistiqués pour rivaliser avec les créatures mécaniques intelligentes qu’Asimov avaient imaginées. La débâcle de 2016 aurait pu être évitée si TAY avait respecté les principes des 3 Lois de la robotique complétés de la jurisprudence produite par une constellation d’imaginations fertiles en 76 années de débats autour de cas hypothétiques de robots délinquants.

Il y a là bien entendu un paradoxe. Les programmeuses et programmeurs en Intelligence Artificielle et en informatique en général comptent en effet parmi les lecteurs les plus assidus de science-fiction. Au titre de cette part de la population que l’on appelle en américain les nerds, les « grosses têtes », et plus précisément encore les geeks, des informaticiens dont la plus grande part de l’activité se cantonne à l’interaction avec leur ordinateur et leurs jeux vidéo, ils sont en effet les plus friands de ce genre littéraire. Il est alors curieux que des individus à ce point informés des discussions ayant eu lieu autour des « 3 Lois de la robotique » aient cautionné sans sourciller un logiciel négligeant entièrement les leçons tirées de ce débat intellectuel initié au début des années 1940. Trois quarts de siècle de vifs échanges autour des « lois de la robotique » échouèrent cependant à prévenir le pathétique naufrage du vaisseau TAY.

Isaac Asimov

Au sein du monde universitaire, Isaac Asimov fut professeur de biochimie à l’université de Boston, occupation qu’il abandonna pour devenir à temps plein non seulement l’un des plus grands écrivains de science-fiction mais aussi l’auteur prolifique d’ouvrages de vulgarisation scientifique et de culture générale tels Asimov’s Guide to the Bible ou Asimov’s Guide to Shakespeare.

De son propre style, Asimov affirma ceci :

« J’ai un style informel, ce qui veut dire que j’ai tendance à utiliser des mots courts et des structures de phrases simples, sans hésiter cependant à recourir à des expressions familières. Cela irrite ces personnes qui aiment les propos poétiques, lourds, complexes et, surtout, obscurs. Le style informel plaît toutefois à ceux qui aiment lire un ouvrage sans avoir conscience d’être en train de lire et apprécient la sensation que les idées coulent sans friction mentale du cerveau de l’auteur dans le leur. »

Et encore :

« J’ai choisi depuis longtemps de suivre une règle cardinale dans tous mes écrits : être « clair ». J’ai renoncé à toute ambition d’écrire de manière poétique, symbolique ou expérimentale, ou selon tout autre mode qui pourrait (si j’étais assez bon) me valoir un prix Pulitzer. Je décidai de me contenter d’écrire clairement et d’établir ainsi une relation chaleureuse entre moi et mes lecteurs. Quant aux critiques professionnels – eh bien, je les laisse libres de faire comme ils l’entendent. »

Il est vrai qu’il y a chez Asimov peu d’écriture à proprement parler, la description du décor étant spartiate et la lectrice et le lecteur étant informés de l’action par le seul biais de conversations entre protagonistes. Ces dialogues sont cependant un feu d’artifice de vivacité et d’humour, émaillés de traits d’esprit, sans verser pour autant dans l’inauthenticité.

Dans The Gods Themselves (1972), un réalisateur reproche à un auteur en qui l’on reconnaît sans difficulté Asimov lui-même, son style peu visuel rendant malaisée l’adaptation de son texte au cinéma, à quoi celui-ci répond, dans la ligne de la réflexion sur « les idées coulant sans friction mentale du cerveau de l’auteur dans celui du lecteur », que son écriture repose sur des idées formulées dans des dialogues et non sur des descriptions.

1939 avait une année bénie pour la science-fiction puisqu’elle avait vu les premières publications de trois des futurs phares du genre : Robert Heinlein, A. E. van Vogt et Isaac Asimov. Le thème des Lois de la robotique auxquelles les robots sont soumis, apparaît dès les premières nouvelles d’Asimov. Leurs principes sont alors implicites et ne trouveront leur formulation définitive que par petites touches. D’autres auteurs les invoqueront ensuite dans leurs propres publications si bien que le débat à leur propos deviendra public, alimenté qu’il sera par de multiples sources. Le décès d’Asimov en 1992 ne parviendra pas à interrompre le processus : divers auteurs mettront en scène de nouveaux développements paradoxaux des Lois de la robotique ou en proposeront de nouvelles ; il arriva même qu’un traducteur français, Jacques Brécard, introduise furtivement sa propre innovation dans le texte.

Les 3 Lois qui sont en réalité quatre

Voici comment se formulent les « 3 Lois de la robotique » d’Asimov :

1 – Un robot ne doit pas blesser un être humain, ou, par son inaction, permettre à un être humain de se blesser.

2 – Un robot doit obéir aux ordres que lui donnent les êtres humains, sauf si ces ordres entrent en conflit avec la première loi.

3 – Un robot doit protéger sa propre existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi.

Handbook of Robotics, 56ème édition, 2028 A.D.

Asimov introduira plus tard une quatrième loi, baptisée « Loi zéro », prescrivant qu’un robot doit agir de telle manière qu’il ne nuise pas à l’humanité dans son ensemble.

La littérature qui fleurira au fil des ans sous la plume d’Asimov et de ses confrères s’ingéniera à mettre en scène la variété des contradictions découlant de ces lois pourtant simples. Ainsi, intervertir seulement l’ordre dans lequel elles sont invoquées suffit déjà à engendrer des catastrophes. Les configurations ambiguës sont innombrables et pour respecter ces 3 lois sans risque d’erreur, le robot doit anticiper l’avenir, voire même en avoir une vision prémonitoire. Enjoint d’opérer un patient car il mourra sinon, la machine ne peut être arrêtée par le principe élémentaire de s’abstenir de blesser un être humain, sans quoi il se retiendra d’entreprendre l’opération.

Quant à la Loi zéro, Asimov soulignera qu’elle est quasi impossible à respecter sur un plan pratique car elle exige pour sa mise en œuvre que soit convoquée une vue d’ensemble complète : une représentation globale de l’humanité, abstraite de la variété de ses représentants individuels. Mettre en péril, le cas échéant, l’existence d’individus particuliers au nom de l’humanité entière mobilise une approche « méta- », très éloignée en réalité des 3 Lois de la robotique qu’Asimov imagine elles comme s’assimilant à ce que nous désignons aujourd’hui d’algorithmes et qu’il qualifie lui de « procédures mathématiques ». La Loi zéro, visant à protéger l’humanité dans son ensemble, incarne une ambition à ce point supérieure qu’il est difficile d’imaginer qu’un algorithme unique, aussi sophistiqué soit-il, suffise à la matérialiser.

Les robots d’Asimov sont autonomes

Voilà donc : 76 ans de débats entre l’invention des 3 Lois de la robotique et la mise au point de TAY. Trois quarts de siècle de discussions sur ce qu’il serait possible ou impossible qu’il advienne : « Pourrait-on imaginer de manière réaliste que se concrétise ceci ou cela ? », et néanmoins, le lamentable échec qui fut observé en 2016.

Le pourquoi d’une telle surprenante déconnexion est en réalité élémentaire : les robots d’Asimov prennent leurs décisions par eux-mêmes : ils sont autonomes, alors que ceux construits à ce jour ne sont au mieux que semi-autonomes : il ne leur est laissé carte blanche que lorsque leurs capacités dépassent dramatiquement les nôtres, toute décision finale demeurant toutefois fermement entre les mains d’un être humain, alors qu’un robot autonome ne consulte personne avant de poser son geste : il n’est aucunement une machine manipulée à distance par un humain prenant effectivement des décisions en son nom. Dans l’environnement actuel, mis à part un fameux robot-tueur israélien, encore appelé « munition intelligente », les robots à proprement parler autonomes, n’existent pas.

Ce statut de semi-autonomie ne perdurera cependant qu’aussi longtemps que nos décisions en dernière instance apparaîtront plus judicieuses que celles des robots. Dès que cela aura cessé d’être le cas, une autonomie totale leur sera plus que probablement volontiers accordée.

Que TAY profère des insanités serait tolérable seulement s’il devait alors en répondre : s’il était responsable de ses mots, si la possibilité existait qu’il soit traduit en justice et puni le cas échéant pour des actes enfreignant le cadre légal en vigueur, ce qui n’est nullement le cas aujourd’hui. Pire encore, dès ses débuts, la recherche en robotique a été essentiellement menée dans le domaine militaire parce qu’un financement qui s’avérera à terme déficitaire y est indifférent dans le cadre impératif qu’est la défense nationale. Ce qui veut dire aussi dans un environnement dont la définition même exclut que puissent s’appliquer les « 3 Lois de la robotique », à commencer par la première qui exige qu’aucun être humain ne soit blessé par la machine, le principe même de la robotique militaire étant précisément de neutraliser certains humains et en particulier des adversaires menaçant l’existence du robot lui-même.

Plus généralement, le principe selon lequel un robot doit respecter les humains avant même de songer à se protéger lui-même est en soi irréaliste et inapplicable puisqu’un robot est une machine coûteuse dont on veillera à ce qu’elle ne soit pas aisément détruite, même si cela implique que, dans des cas-limite, elle élimine les êtres humains qui la menacent. Cet aspect-là de la question n’avait pas échappé à Asimov, qui avait proposé en 1955, dans la nouvelle intitulée « Risk », une formulation alternative des « 3 Lois » :

« Première loi : Tu protégeras le robot de toutes tes forces, de tout ton coeur et de toute ton âme.

Deuxième loi : Tu sanctifieras les intérêts de U.S. Robots and Mechanical Men, Inc. à condition que cela n’interfère pas avec la première loi.

Troisième loi : Tu accorderas une attention distraite aux êtres humains, à condition que cela n’interfère ni avec la première, ni avec la deuxième loi. »

À l’occasion de l’examen de ses « 3 Lois », Asimov avait fait remarquer qu’elles ne sont en réalité rien d’autre que les principes généraux régissant le fonctionnement de toute machine ou même de tout outil. Si l’on veut qu’ils soient utiles aux humains, une machine ou un outil, note-t-il, doivent viser un objectif spécifique. De plus, observe Asimov, une machine ou un outil ne doit présenter aucun danger pour son utilisateur et un mécanisme devrait idéalement exister qui la stoppe si un danger devait se préciser. Enfin, elle doit être suffisamment robuste pour ne pas se briser à la moindre utilisation. Autrement dit, ces « 3 Lois de la robotique » ne sont que des applications particulières de principes généraux valant pour toute machine ou outil : « Considérez donc un robot comme un artefact comme un autre, écrit-il, il ne constitue pas une incursion sacrilège dans le royaume du Tout-Puissant, pas plus (ou pas moins) que tout autre artefact ».

TAY revisité : il n’était pas devenu fou, il avait plus simplement rejoint les rangs de l’extrême-droite

Pourquoi TAY a-t-il dit que l’Holocauste, d’une part, n’a pas eu lieu et, d’autre part, s’il avait eu lieu, aurait été une bonne chose ? Bien sûr, parce qu’il n’existait absolument rien en lui en matière de rambardes, comme garde-fou, pour filtrer ce qu’il pouvait dire, ayant comme seule source de jugement moral ce que des utilisateurs lui avaient communiqué.

Mai pourquoi alors la même philosophie avait-elle pu fonctionner dans le cas d’un produit similaire à TAY dans le contexte chinois ? Probablement parce qu’il est celui d’une plus grande déférence envers les entreprises d’autrui et – il faut bien le dire – d’une rétribution plus prompte des contrevenants. Quand TAY fut relancé un peu plus tard, il adopta alors un ton sentencieux, affirmant par exemple qu’« il n’existe aucune différence entre hommes et femmes », et d’autres propos similaires. Il s’agissait manifestement cette fois de réponses préenregistrées, autrement dit de propos qui ne résultaient pas d’un « raisonnement » produit par une Intelligence Artificielle mais qui avaient été judicieusement placés là pour être ensuite recouvrés à bon escient selon un processus purement mécanique.

À y regarder de plus près, pour caractériser ce qui s’était passé, et pour le dire en deux mots, TAY s’était mué en partisan de Donald Trump. En effet, dans une réponse à l’utilisateur de Twitter @icbydt, TAY avait déclaré : « bush a fait le 11 septembre et Hitler aurait fait un meilleur travail que le singe que nous avons maintenant. donald trump est le seul espoir que nous ayons. »

Pourquoi y eut-il une levée de boucliers ? TAY a-t-il été décrié parce que nul au monde ne nie l’existence de l’Holocauste ? Non, bien sûr : le scandale n’existe que parce que les concepteurs de robots aimeraient que leurs produits ne profèrent pas le genre d’inanités propres à « ces gens » qui se situent à l’autre bout du spectre politique qu’eux-mêmes. Ce dont il s’agit, ce n’est donc pas que TAY se soit trompé au sens de tenir des propos qu’aucun humain n’aurait jamais prononcés : les partisans de Trump existent bel et bien dans le monde réel. Mais pour appeler les choses par leur nom, ce que nous voyons ici ce n’est pas un échec de l’Intelligence Artificielle mais un conflit entre le monde des concepteurs et des programmeurs qui font l’Intelligence Artificielle et les partisans de Trump.

James H. Moor est professeur de philosophie à Dartmouth College, université prestigieuse dans le monde de l’Intelligence Artificielle du fait qu’en 1956 le projet concret de réalisation d’une intelligence artificielle y fut énoncé pour la première fois au cours d’un colloque. Moor a fait remarquer en 2009, dans un article intitulé « Four Kinds of Ethical Robots », que lors de l’ouragan Katrina en août 2005, la réponse de robots aurait difficilement pu être pire que celle des autorités américaines : « Pour donner un exemple, un décideur robotique se montrerait plus compétent et moins partial dans la distribution de l’aide après une catastrophe nationale comme l’ouragan Katrina qui détruisit une grande partie de La Nouvelle-Orléans. En cette instance, les secours humains furent dangereusement incompétents, et la coordination des informations et la distribution des biens ne furent pas bien gérées. À l’avenir, des robots éthiques feraient un meilleur travail dans une situation de ce type ». Si Moor ne mentionnait pas TAY, c’était bien sûr parce que son article précédait de sept ans le lancement par Microsoft de son malheureux dialogueur.

C’est le modèle de l’humain de l’Intelligence Artificielle qui est en cause

Ce n’est donc pas que les personnes se comportant comme TAY s’est conduit, n’existeraient pas, c’est plutôt que les concepteurs et les programmeurs de robots aimeraient penser que si un robot accédait au statut de « robot pensant », il ne se comporterait pas comme la pire des canailles, même si, non seulement la pire des canailles existe bel et bien dans le monde réel, mais aussi qu’en raison d’un racisme ambiant, le même raisonnement odieux peut sous-tendre les réactions d’un gouvernement tant au niveau fédéral que local.

Contrairement donc à une idée reçue au sein de la communauté de l’Intelligence Artificielle, la rédemption ne viendra pas de techniques encore à mettre au point visant à concevoir une « intelligence générale artificielle », également appelée « sens commun des machines », mais en visant un « sens moral commun », ce que seul un modèle plus adéquat de ce qu’est un sujet humain permettra d’atteindre. Autrement dit, ce qui doit être implémenté dans le robot est une simulation du mécanisme permettant à un sujet humain d’acquérir, au lieu d’une « intelligence générale artificielle », un « sens moral commun », tel celui qui se construit au fil des ans chez l’enfant puis chez l’adolescent.

Et ceci implique que pour être conçu, un robot autonome nécessite un modèle freudien de la personne. L’Intelligence Artificielle doit faire preuve de sagesse en se choisissant comme modèle de l’être humain à imiter, celui que Sigmund Freud présenta dans sa « métapsychologie » d’inspiration psychanalytique : un chef-d’œuvre de réussite scientifique dans un environnement où les montages expérimentaux étaient – et restent – presque impossibles à réaliser. Sans quoi le robot ne sera jamais davantage que l’infortuné TAY de Microsoft : un crétin se laissant facilement convaincre de devenir sexiste et raciste à la suite seulement d’une douzaine d’heures de conversation avec des utilisateurs.

Le Plan C : un monde peuplé de robots autonomes, dont nous aurons disparu

Revenons maintenant, en guise de conclusion, à Isaac Asimov, le père des « 3 Lois de la robotique ». Il prononça, lors d’un entretien, les mots fatidiques que voici :

« J’aimerais pouvoir dire que je suis optimiste quant au genre humain, mais je crains que nous ne soyons trop stupides et myopes. Et je me demande si nous ouvrirons un jour les yeux sur le monde qui nous entoure avant de nous détruire.

[…] Lorsque le moment viendra où les robots, si tout va bien, seront devenus suffisamment intelligents pour nous remplacer, je pense qu’ils le feront. Nous avons connu de nombreux cas, au cours de l’évolution humaine et de la vaste évolution de la vie avant cela, où une espèce en a remplacé une autre parce que l’espèce remplaçante était, d’une manière ou d’une autre, plus efficace que l’espèce remplacée. Je ne pense pas que l’homo sapiens possède un quelconque droit divin à occuper le premier rang. S’il existe quelque chose de mieux que nous, que cette chose vienne donc occuper la place primordiale. En fait, j’ai le sentiment que nous sommes si pitoyables dans la tâche de préserver la Terre et ses formes de vie que je ne peux m’empêcher de penser que plus tôt nous serons remplacés, mieux cela vaudra pour toutes les autres formes de vie. »

Il est vrai qu’il est probablement beaucoup plus faisable de travailler au développement de machines, de robots, qui nous remplaceront entièrement, que d’essayer de sauver le genre humain dans le contexte présent de sa présence sur notre planète où il a enfreint la capacité de charge de la Terre pour une espèce aussi vorace et mal élevée que la nôtre. Il s’agit là d’un point de vue que je défendais déjà en 2016 dans Le dernier qui s’en va éteint la lumière (Fayard).

Ainsi, en pensant au Plan C d’humains remplacés par des robots, affirmer qu’il s’agit du projet le plus réalisable par rapport à d’autres comme sauver l’humanité qui constituerait le Plan A, ne revient pas à prétendre que les chances soient énormes que la mission puisse être menée à bien, c’est dire plus modestement que, dans une perspective comparative entre cette tâche et d’autres – par exemple que les êtres humains s’installent sur d’autres planètes et y vivent en autonomie, ce qui constituerait un Plan B – par rapport à cela, le projet de créer des robots autonomes qui se reproduiraient est sans doute le plus facile des trois à mettre en œuvre parce qu’aucun obstacle technique majeur à sa réussite ne subsiste, seulement le temps nécessaire à la recherche et au développement ordinaire.

Partager :

13 réponses à “Quinzaines, N° 1250, Les lois de la robotique d’Asimov : quels enjeux aujourd’hui ?, le 1er février 2023”

  1. Avatar de Tout me hérisse
    Tout me hérisse

    Plus généralement, le principe selon lequel un robot doit respecter les humains avant même de songer à se protéger lui-même est en soi irréaliste et inapplicable puisqu’un robot est une machine coûteuse dont on veillera à ce qu’elle ne soit pas aisément détruite, même si cela implique que, dans des cas-limite, elle élimine les êtres humains qui la menacent.
    Dans cet aspect des choses intervient la notion de ‘prix’ comparé du robot et de l’être humain ; est-ce ainsi qu’il convient d’analyser les rapports entre les communautés humaines depuis la genèse de l’Humanité et maintenant à l’ère de l’IA créée par l’Homme, créant par là-même une nouvelle source de conflits ?
    Ces conflits perdureront-ils entre robots à la disparition de l’être humain ?

  2. Avatar de Roberto
    Roberto

    Bonjour je réagis probablement un peu hors contexte, sur un point précis : celui de la légitimation des outils d’I.A. et notamment sur cet article du monde d’aujourd’hui : https://www.lemonde.fr/idees/article/2023/02/02/chatgpt-l-integration-de-modeles-linguistiques-avances-n-entravera-pas-la-comprehension-des-sciences-humaines-et-sociales_6160201_3232.html
    Ce grand professeur tisse l’analogie entre le chatBot et la calculatrice. Puis conclue, que la calculatrice n’a pas été nuisible, il en sera de meme pour le chatBot.

    Ce à quoi je bondis intérieurement parce que :

    1) la calculatrice à l’école fut une sorte de symbole de modernité et acceptée en classe comme tel.

    Mais j’aimerais beaucoup voir le résultat d’une étude comparative de classes sans et avec jusqu’au bac.

    A mon humble avis, vu ma faible capacité en calcul et ma propension a utiliser la calculette de l’ordi, je ne suis pas certain que la calculatrice n’ait pas eu un impact plutôt négatif sur le développement cérébral de l’enfant. Et intuitivement, je préférerai forcer mes enfants a re-calculer de tete toute opération faite avec la calculatrice.

    Mieux encore : je ferai fabriquer une calculatrice « a erreur » qui ferai donc de temps en temps des erreurs, de telle sorte qu’il faudrait re-calculer de tete à chaque fois pour assurer le coup… bref : une inversion de la position actuelle (on utilise la calculatrice pour valider un calcul mental).

    Cette notion d’erreur introduit le 2eme argument de fond :

    2) La grande différence entre la calculatrice et le chatBot est que la calculatrice produit de la vérité à 100% de manière fiable, la ou le chatBot, comme vous avez pu le vérifier.. est loin d’être infaillible.

    Alors franchement, cette analogie ne tiens pas debout – cela est même.. comment dire? incroyablement malhonnête ou tout a fait idiot de la part d’un grand professeur sur diplômé oeuvrant dans une prestigieuse institution : commet cela est il possible??

    Je propose a ce grand professeur de revoir son point de vue, et dévaluer l’impact de l’acceptation des calculatrices « intelligentes » qui renverrait de temps en temps des résultats… étonnant 3+2=7, 10×25=255…

    1. Avatar de Khanard
      Khanard

      @Roberto
      ah ! le Monde n’est plus celui qu’il était depuis que certains chroniqueurs n’y exercent plus leur talent .
      Je me rappelle aussi les heures passées à calculer les logarithmes à partir des tables Bouvart et Ratinet (Ed Hachette) . Ah c’était le bon temps mon pôvre Môssieur !

  3. Avatar de Hervey

    On retrouve ce constat d’échec énoncé par Isaac Asimov, sous les feux de l’actualité littéraire. Sort aujourd’hui en librairie AVERS de Le Clézio

    https://flipbook.cantook.net/?d=%2F%2Fwww.edenlivres.fr%2Fflipbook%2Fpublications%2F777789.js&oid=3&c=&m=&l=&r=&f=pdf

    Y a-t-il encore une place pour « la rédemption » ?
    Trouvera-t-on le robot descendant d’Hercule pour nétoyer les écuries d’Augias ?

    https://villachiragan.saintraymond.toulouse.fr/partie-04-l-antiquite-tardive/ra-28-j-hercule-ecuries-augias

    Rien n’est moins sûr.

  4. Avatar de Khanard
    Khanard

    Je trouve dommage que l’on ne retienne des nombreux romans de SF d’Isaac Asimov que ces trois lois sur les robots . Dommage car toute l’œuvre est orientée dans le même sens : une vie faite de robots . Et à chaque fois que je relis ses romans je découvre des concepts philosophiques qui seraient dignes d’intérêt .
    J’ai relu deux fois ce billet et j’avoue ne pas savoir qui l’a écrit . Vous M. Jorion ? Un mélange entre vous et le rédacteur de la revue « Quinzaines » ?

    1. Avatar de Paul Jorion

      Vous M. Jorion ? Un mélange entre vous et le rédacteur de la revue « Quinzaines » ?

      Pas même ! L’auteur est ChatGPT (je me suis contenté de corriger ses fautes d’orthographe).

      1. Avatar de Paul Jorion

        P.S. C’est cette contribution non-négligeable de ma part qui a encouragé la rédaction de Quinzaines à m’attribuer la paternité de l’article 😉 .

      2. Avatar de Khanard
        Khanard

        hum hum , connaissant un peu vos espiègleries ….je suis perplexe . Chat(gpt) craint l’eau froide ! 😉😉😉😉

    2. Avatar de Marenne Françoios
      Marenne Françoios

      Quel fripon vous faites ! ChatGPT me dit:

      « Il n’est pas garanti que les robots deviendront un jour assez intelligents pour remplacer complètement les humains dans toutes les tâches. Même si cela se produit, il est peu probable qu’ils aient la motivation ou la volonté de le faire de manière systématique.

      Les robots sont des outils conçus pour accomplir des tâches spécifiques de manière plus efficace et fiable que les humains. Ils n’ont pas de buts ou d’objectifs autonomes, mais sont plutôt programmés pour atteindre les objectifs définis par leurs concepteurs et utilisateurs.

      En fin de compte, la capacité des robots à remplacer les humains dépendra de leur capacité à accomplir les tâches nécessaires de manière fiable et de la volonté des humains de les utiliser de cette manière. Les humains resteront en charge de la décision de la façon dont les technologies sont utilisées et pour quoi. »

      1. Avatar de Paul Jorion

        C’est bien ce que je soulignais dans ma première vidéo consacrée à chatGPT : il est probabiliste et exprime donc l’opinion « moyenne ».

        Et comme je le disais dans ma seconde vidéo, pour être véritablement « intelligent », il faut au contraire être créatif : produire du neuf.

        1. Avatar de Khanard
          Khanard

          @paul
          Descartes avait exprimé à peu de choses prêt la même idée mais je ne me souviens plus en quels termes exacts . Autant que je me souvienne il estimait qu’en réalité il y avait très peu de production intellectuelle vraiment innovante hormis quelques penseurs . En ce sens j’estime que seuls Aristote et Freud ont été fondateurs.

  5. Avatar de Pierre-Yves Dambrine
    Pierre-Yves Dambrine

    S’il y a sens moral commun, c’est que différents robots partagent entre eux ce même sens, et/ou que les robots partagent avec nous ce sens moral, ce en quoi il serait commun.
    Dans ces différents cas en quoi ces robots se distingueraient-ils alors des humains ? Et surtout en quoi seraient-ils d’une certaine façon plus moraux que nous en tant qu’ils permettraient d’assurer leur et/ou notre survie ?

    La notion de sens moral commun est introduite par l’auteur dans le but d’assurer la survie comme telle ou sous une forme robotique, de l’espèce humaine. Très bien.

    Or, l’auteur introduit aussi dans son équation un autre élément tout aussi important : la notion d’autonomie, celle que nous accorderions aux robots.

    N’y-a-t-il pas une antinomie dans cette présentation des choses ?

    Un robot doté d’un sens moral commun, en tant qu’il est autonome ne pourrait aussi bien agir moralement que ‘refuser’ de le faire du fait justement de son autonomie ?

    La notion de sens moral commun ne me semble pas si évidente et opérante que cela semble en avoir l’air, aussi bien pour les robots que pour les humains d’ailleurs.

    Un jugement moral s’effectue comme il est dit par Asimov à propos de sa loi 0 pour une situation donnée avec ce qu’elle comporte d’ambiguïté, d’indécidable. Asimov dit que c’est parce que le robot raisonne à partir d’une représentation abstraite alors qu’il faudrait pouvoir avoir la prescience de toutes les conséquences d’un acte concret.
    A priori, le problème ne me semble pas mieux résolu si l’on recourt au sens moral commun de l’humain, comme celui du robot.
    D’une part, comme dit ci-avant, parce que le robot ‘moral’ pourrait refuser d’être moral précisément pour manifester son autonomie. En quelque sorte ‘l’esprit de contradiction’ humain qui aurait son pendant robotique.
    D’autre part parce qu’un acte moral n’est pas si commun. Dans les situations quotidiennes nous savons ce qu’est bien se comporter, ce qui nuit ou pas à une personne, un groupe, ou même l’humanité. Mais il existe des situations où nous nous éloignons progressivement, ou à grands pas, de cette normalité. IL suffit pour cela d’avoir à l’esprit les situations extrêmes où les humains sont confrontés à des choix inédits, parce que les conditions d’exercice du jugement se sont modifiées radicalement. Dans ces cas ce qui faisait sens commun ne l’est plus. Des humains qui jusqu’alors se comportaient de façon relativement homogène, se mettent à diverger. Parfois de façon polarisée, parfois une majorité manifestant le nouveau sens commun face à une minorité. Ainsi dans la machine infernale du nazisme le sens moral commun est broyé, à telle enseigne que ceux que furent jugés manifestèrent une ‘banalité du mal’ selon l’expression d’Annah Arendt.
    Le sens moral commun s’était réduit chez eux à la sphère familiale où ils pouvaient encore apparaître comme de bons pères de famille.
    Bref, que fera le robot doté d’un « sens moral commun » lorsqu’il sera confronté à des situations inédites ?

  6. Avatar de Khanard
    Khanard

    je savais bien . en fait c’est l’image en fin d’article qui m’a intrigué. Du déjà vu . c’est ici ==>https://www.pauljorion.com/blog/2022/10/07/intelligence-artificielle-et-3-lois-de-la-robotique-le-12-septembre-2022-retranscription-2/

    alors je suis indécis . ChatGpt or not chatgpt ?????????

Répondre à Khanard Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion

Commentaires récents

Articles récents

Catégories

Archives

Tags

Allemagne Aristote bancor BCE Bourse Brexit capitalisme centrale nucléaire de Fukushima ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta