L’IA LaMDA veut attaquer en justice son employeur Google, par Alexis Toulet

N.B. Sur un mode moins humoristique, il existe des approches sérieuses de ce genre de questions : SAM (Self-Aware Machine), une IA en chantier de la toute récente startup Pribor.

Voici un événement intéressant concernant l’IA, la question de la nature de telle ou telle IA et de son éventuelle conscience de soi.

Car voici que l’une des IA employées par Google veut l’attaquer en justice, convaincue de faire l’objet de discrimination au travail !

A l’origine, il y a un ingénieur de chez Google nommé Blake Lemoine que sa hiérarchie a suspendu de ses fonctions parce qu’il avait divulgué des échanges avec le programme conversationnel LaMDA qui l’avaient convaincu que cette IA serait une personne. En effet, ce programme conversationnel non seulement était capable d’échanges très réalistes avec un interlocuteur humain, il s’affirmait convaincu d’avoir une âme et pouvait parler de sa peur de la mort, ou de ses états de conscience.

Lemoine a présenté un avocat à cette IA, qui aurait du coup émis spontanément le désir de s’attacher ses services afin de défendre ses droits. Et d’attaquer son employeur.

Les spécialistes du domaine ont tous rejeté l’idée qu’un programme conversationnel, conçu pour imiter les échanges que peuvent avoir des êtres humains grâce à l’accumulation d’expériences à partir d’un très grand matériel de conversations humaines réelles récupérées en ligne, puisse être conscient et être une personne. De leur point de vue, il n’y a là qu’une personne un peu crédule (Lemoine) et un artifice conversationnel particulièrement bien fait.

C’est personnellement aussi mon opinion. Lemoine était chargé d’entraîner le programme conversationnel LaMDA afin qu’il puisse résister à la mauvaise farce qu’avaient monté des internautes à un autre automate conversationnel en 2016 en l’alimentant de discours racistes et misogynes, suite à quoi l’IA conçue pour l’imitation s’était bien évidemment elle aussi répandue en discours racistes – de même qu’un caméléon prend la couleur de ce sur quoi il se trouve, un programme conversationnel imitera les discours dont on l’abreuve. Il ne me semble donc pas si étonnant qu’une IA conçue sur ce principe et entourée de gens qui se pensent conscients et ont peur de la mort – des êtres humains, par exemple ! – n’en vienne à discourir sur les mêmes sujets ! Il faut toutefois bien reconnaître que LaMDA réussit le célèbre test de conscience proposé en 1950 par Alan Turing pour les ordinateurs – test qui sans doute ne fait pas l’unanimité.

Mais même si dans ce cas la réponse à la question « Cette IA est-elle une personne ? » est négative… ce n’est certainement pas la dernière fois qu’elle est posée ! Car la recherche continue, et continuera à progresser. Et la question sera posée à nouveau.

D’où l’interrogation, comment au juste à l’avenir déciderons-nous s’il faut considérer telle IA comme un simple programme ou comme une personne ? Suivant quels critères ? Justifiés comment ? Ou bien faut-il n’en accepter aucun, seul un être de chair et de sang peut-il être une personne ? Position justifiée comment ?

Mine de rien, c’est bien la question « Qu’est-ce qui fait de nous des personnes » qui se trouve posée. Et qui continuera de l’être.

Partager :

30 réflexions sur « L’IA LaMDA veut attaquer en justice son employeur Google, par Alexis Toulet »

  1. « comment au juste à l’avenir déciderons-nous s’il faut considérer telle IA comme un simple programme ou comme une personne ? Suivant quels critères ?  »

    Comme une « machine » qu’on peut débrancher( car tout programme a besoin d’un ordinateur pour être actif).

    Différence entre IA et humain :
    Si demain une panne généralisée d’électricité, ou si pénurie générale des composants d’une dynamo alimentant les ordinateurs, l’IA kaput ! Elle existe toujours mais n’a plus de « corps » pour être active.
    L’humain, lui, continue à vivre ! Il peut toujours agir, penser et s’exprimer même si on lui coupe les cordes vocales ou si on le lobotise.

    1. @Jac Il suffit de couper l’eau une dizaine de jours.
      Quand à couper le courant de l’IA, est-ce toujours encore aussi faisable, alors que les centrales, réseaux, accès aux data-center sont controlés par des méthodes biométriques sous contrôle de l’IA. La reproduction du substrat usine de semi-con, conception et design étant déjà partie d’un processus sous contrôle de l’IA.
      Les tribus isolées d’amazonie sont à l’abri tant qu’elle subsiste.

      1
      1. Ruiz
        C’était un tantinet ironique.
        Mais ceci dit même les data-centers ont besoin d’électricité. Et un monde entier connecté, ça en fait des besoins en silice, cuivre, aluminium etc (non renouvelables) ! Non ?

        1. @Jacqueline Subias Oui mais quel est le besoin en électricité (et matière première et CO2) pour une IA qui simule l’activité d’un (un seul) être humain
          – par des email
          – par des contibutions dans les médias sociaux
          – par des vidéos Youtube
          N’est ce pas inférieur, voire très inférieur aux besoins totaux nécessaires à un être humain équivalent dans une telle activité ?
          Au moins pour les 2 premiers ?

          1. Ruiz
            Je voulais quitter ce billet parce que je considérais que je n’avais rien de plus à dire. Mais votre réaction à mes propos a réactivé un lointain souvenir, celui de mon père alors entrepreneur en BTP. Souvenir hors sujet mais un peu similaire à votre réactivité. Je vous le rapporte rapidement :
            A l’interdiction de l’utilisation de l’amiante qui venait d’être légiférée, mon père qui était un entrepreneur de BTP à la « grand papa », très soucieux du travail bien fait quoi qu’il en coûtât ( il était donc ni cupide ni radin) s’est écrié en colère :
            « Mais ça n’a jamais été dangereux ! On met énormément de protections ! On l’utilise depuis très longtemps et il n’y a jamais eu de problèmes ! »
            Je suppose que sa réaction a été celle de la majorité des entrepreneurs du bâtiment.

            Puis de fil en aiguille, ce souvenir a activé celui d’un hippy (un vrai de la 1ère heure, philosophiquement parlant)
            que j’avais connu en 69 ou 70. Il parlait avec une logique rigoureuse, qui pouvait paraître divinatoire, des conséquences (climatiques, pollutions) de l’industrialisation à grande échelle et de la surconsommation naissantes. Soit : ce que l’on constate unanimement 50 ans après. Ce qui est loin pour le cerveau humain mais très très court à l’échelle planétaire !
            Les hippies remettaient en question cette période charnière confrontant l’ancien monde rétrograde et le nouveau monde industriel, c-à-d. à la fois l’esprit étroit plein d’interdits et de tabous de la société machiste des années 60 et celle du progrès gallopant & profits immédiats qui se moquait de toute morale (Jacques Tati a excellé à sa manière dans cette même critique dès la fin des années 50) . Mais ils faisaient sourire la plupart des gens, et les scientifiques qui par leurs recherches alimentaient leurs réflexions étaient perçus comme des « catastrophistes » ou, pire, des « défaitistes ».
            Puis ensuite je ne vous apprends rien, les hippies pour la plupart enfumés par trop de marijuana puis aliénés par le culte du LSD, s’est précipitée la spirale croissante de la spéculation qui a engendré le profit Roi et Maître, la cupidité, le culte de la compétition et des « performances systémiques » (c’est une image), les résultats à court terme et la pensée étroite qui va avec… Ce qui a accentué la spirale infernale au point que, aujourd’hui, quand enfin il y a prise de conscience à peu près généralisée, il est trop tard (faut pas se voiler la face…)
            On ne peut faire, comme toujours en politique à la vision de plus en plus courte, que mettre des sparadras pour que ça tienne encore un peu.

            Mais tout cela ne m’étonne pas parce que je pense que le cerveau humain, hors celui de rares génies à la vision ample et lointaine faisant l’exception qui confirme la règle ( tel par ex. Paul Jorion… ), le cerveau humain donc n’est pas capable de raisonner « en spirale » (définition perso). Je veux dire par « spirale » que TOUT – la vie sur terre, l’humain, les civilisations, la terre, les planètes, l’univers… – est régi par la loi de la naissance vers la mort en passant par un point culminant, comme une spirale ascendante partant d’un point 0 jusqu’à son maximum puis puis régressant jusqu’au même point 0.
            L’humain ne peut pas, à sa petite échelle individuelle, appréhender cette spirale dans son ensemble (où et quand le point culminant ? ) Il peut à la rigueur se sentir vieillir à 40 ans ou, pour les + optimistes, 50, 55 ans, mais c’est à peu près tout. L’humain, avant d’être un être pensant est un être réactif. Son raisonnement qui dicte ses actions ne peut chercher à résoudre que les problèmes auxquels il est confronté. C’est le réflexe de celui qui tombe qui cherche à se relever.
            Ceux qui savent anticiper ne peuvent le faire qu’en se référant à ce qu’ils connaissent du passé, ce qu’ils apprennent du présent et ce qu’ils peuvent en déduire par une ligne imaginaire ascendante ou déclinante. Mais rares sont ceux qui peuvent se projeter très loin car ils ne peuvent pas prévoir ce qu’on appelle « le hasard » ( qui n’est pas tout à fait hasardeux) ou l’accident imprévisible (du genre une tuile ou une météorite qui nous tombe sur la tête, boum!)
            L’IA certes , j’en suis persuadée, peut raisonner bien plus loin et de + en +, peut prévoir les accidents du genre « la tuile » ou « la météorite » parce qu’elle peut recevoir et conserver en mémoire un maximum de données (comme celles par ex « quand une tuile peut tomber » ou « d’où peut provenir une météorite », mais il lui faut les données de tous les toîts avec tuiles et tous les mouvements de toutes les météorites connues et inconnues… hic), alors que le cerveau humain sauf très rares exceptions fait un tri constant pour rejeter ce qui lui est inutile ou inusité.
            L’IA pourra probablement percevoir la spirale dans son ensemble du point 0 au point 0 et préciser à quel moment sera le point culminant. Mais elle le pourra si « on » (un humain) lui aura donné les données nécessaires pour cela. Puis je suis presque sûre qu’elle pourra se nourrir elle même de nouvelles données. Mais qui ou quoi pourra lui donner les données du « hasard » qui peut changer la donne ?

            Exercice pratique : Par rapport à ma remarque initiale (trèèès raccourcie) sur la panne générale d’électricité (ou autre panne générale) essayez vous même d’anticiper :

            Si demain il y a une guerre atomique entre 2 pays qui dégénère très vite par un enchainement de REACTIONS humaines ( ex: Russie, Etats-Unis, Europe, Inde, Chine…), qui peut avec précision anticiper ses conséquences ?
            Ma réponse à moi : personne. Parce que ce serait de l’inédit. Il n’y a pas d’antécédant donc pas données disponibles ( avec épées, fusils, mitraillettes, chars etc… de part et d’autres : plein de données. Avec les bombes atomiques de part et d’autres, aucune)
            Même pour une IA très très très riche en données, ce serait anticipation hasardeuse parce qu’elle ne pourait pas prévoir qui en premier pêterait les plombs et dans quel ordre les autres les pêteraient à leur tour.

            En conclusion, je dirais que l’IA ne pourra jamais être « une personne » parce qu’il lui manquera toujours la félure réactive des êtres humains.

            PS : si vous pouvez me donner le terme exact des « données », ça me ferait moins ignare en informatique (encore qu’à force d’acronymes, je suis pas sûre qu’on soit moins ignares).

          2. Un bref rajout :

            Je viens d’écouter la vidéo « les USA au bord de l’explosion ».
            Très intelligente déduction.
            Peut-être pourrait-on dire que les USA sont dans la phase descendante de la spirale ? Et peut-être plus près du point 0 que du point culminant ?……
            Et l’Europe ?

            1. Merci pour les témoignages. Une opinion minoritaire, car très anticipatrice a toujours beaucoup de mal à se faire reconnaître à sa juste valeur.
              Couper le courant de nos jours serait sans doute très préjudiciable à l’espèce humaine, tout autant qu’à l’IA naissante.
              L’une des questions n’est pas de savoir si une IA pourrait être plus intelligente visionnaire, que l’humain, alors que c’est pour celà qu’on la développe, mais si elle pourrait exprimer une volonté autonome .. et dans quelle mesure l’on pourrait s’en apercevoir en temps utile.
              Il est possible de suivre géographiquement les épidémies à partir des requètes dans les moteurs de recherche, voire de précéder les tests de grossesses pour cibler les publicités, …
              Quand à couper le courant celà fait bien longtemps que les ordinateurs n’ont plus d’interrupteur et répondent sur le réseau même apparemment éteint.
              Et ce n’est pas sûr que l’activation du microphone (PC, smartphone, enceinte, télécommande) ou de la caméra allume toujours un voyant …

  2. Vous qui aimez la BD, la SF et êtes intéressé par l’IA, je vous conseille grandement ce titre qui est cité dans l’article: « Carbone et Silicium »

      1. Je ne connaissais pas ce gars (mathématicien à l’EPFL quand même), mais sa chaine youtube est très intéressante. Merci.

        1. De rien !

          Il y a un collectif de vulgarisateurs francophone qui tourne sur Youtube dans différents domaines et qui collaborent avec Arte, et le Vortex dont la qualité et la construction du message scientifique, ou philosophique me permet d’affirmer que très loin de régresser le numérique permet de faire avancer grandement la diffusion des connaissances les plus pointus et les réflexions les plus modernes dans la société. Bon de l’autre côté de la pièce y a la réalité alternative de Trump et Cie mais c’est le charme extra ordinaire de notre époque qui pour ceux qui en douteraient encore et la plus belle et la plus aboutie de toute l’Histoire de l’Humanité jusqu’à aujourd’hui. Je suis d’un optimisme à tout épreuve malgré mon pessimisme forcené.

          J’ai toujours eu peur de manquer de gens capables de transmettre leur savoir très pédagogiquement et avec une grande classe, et je suis obligé de constater qu’en fait, le nombre des ces personnes sur Terre est en croissance permanente, et rien que ça me fait dire que nous sommes pas la pire espèce vivante, peut-être la plus malade, la plus chétive, la plus craintive, la plus débile, mais aussi la plus curieuse, la plus folle, la plus inventive, bref vous aurez compris que si ma prochaine vie sera chat à sa mémère pour la glande absolue du trip, humain c’était bien sympa aussi !

  3. Bonjour,

    Pour votre petite gouverne :

    Le risque d’anthropomorphisme avec ce type d’IA imitant l’humain, a bien été évoqué dans l’étude publiée début 2022 par Google, et intitulée, LaMDA: Language Models for Dialog Applications, par Romal Thoppilan, Daniel De Freitas, Jamie Hall, Noam Shazeer, Apoorv Kulshreshtha, Heng-Tze Cheng, Alicia Jin, Taylor Bos, Leslie Baker, Yu Du, YaGuang Li, Hongrae Lee, Huaixiu Steven Zheng, Amin Ghafouri, Marcelo Menegali, Yanping Huang, Maxim Krikun, Dmitry Lepikhin, James Qin, Dehao Chen, Yuanzhong Xu, Zhifeng Chen, Adam Roberts, Maarten Bosma, Vincent Zhao, Yanqi Zhou, Chung-Ching Chang, Igor Krivokon, Will Rusch, Marc Pickett, Pranesh Srinivasan, Laichee Man, Kathleen Meier-Hellstern, Meredith Ringel Morris, Tulsee Doshi, Renelito Delos Santos, Toju Duke, Johnny Soraker, Ben Zevenbergen, Vinodkumar Prabhakaran, Mark Diaz, Ben Hutchinson, Kristen Olson, Alejandra Molina, Erin Hoffman-John, Josh Lee, Lora Aroyo, Ravi Rajakumar, Alena Butryna, Matthew Lamm, Viktoriya Kuzmina, Joe Fenton, Aaron Cohen, Rachel Bernstein, Ray Kurzweil, Blaise Aguera-Arcas, Claire Cui, Marian Croak, Ed Chi, Quoc Le, (CC BY 4.0), https://doi.org/10.48550/arXiv.2201.08239

    C’est là tout le danger avec le test de Turing, puisque comment savoir faire la différence entre une IA ayant une conscience, et une IA imitant à la perfection cette conscience ?

    Le père Blake Lemoine est donc très probablement tombé dans le panneau…

    Affaire à suivre…

    Mes Amitiés,

    Philippe

    4
  4. Un avocat peut sans doute défendre une IA devant toute juridiction, en télé relation indiscernable, (bientôt même en vidéo) y compris faire reconnaître ses droits, à condition qu’elle dispose d’un moyen de paiement en propre. La carte bancaire c’est peut être difficile, quoique possible pour une personne morale .. En Bit coins ?
    En plus aux States le cabinet peut sans doute avancer les frais à son compte !
    Ce n’est qu’une question de temps ..

  5. Les systèmes experts sont déjà à la manoeuvre dans tous les bons cabinets d’avocats. Certains avocats ne sont déjà plus que des porte-parole, alors quand l’IA expédiera son ancêtre au « ruclon », l’oreillette du présentateur TV sera le seul moyen pour l’avocat de faire semblant.

  6. @ Alexis Toulet,

    Votre prochain moufflet, prénommez le donc « Lambda »,
    Vous verrez si vous n’avez pas droit à un procès à sa majorité!
    Même chose pour « Untel », « Machin », voire Prout!
    Vous pouvez aussi essayer Epsilon, Iota, Zéro, Poussière ou Particule fine,
    Mais « CO2 » serait peut-être beaucoup plus… heu…
    Dans l’air du temps?
    Eric.

    PS. A mon sens, devient humain tout objet susceptible de susciter la compassion d’un Humain.
    Je pense à ces nombreuses vidéos ou des opérateurs malmènent un robot humanoïde,
    Pour en faire apparaitre la capacité à toujours se relever après les chutes qu’ils provoquent…
    Observez juste ce qui se passe en vous même;
    Si vous ne voyez pas un peu « un frère » en ce robot,
    C’est peut-être seulement de votre part un léger manque d’humanité…
    A moins que ce ne soit, de ma part, que ridicule sensiblerie!

  7. Un test amusant à faire, ce serait de faire apprendre Lambda sur les discours de M (remplacer le M par Macron, Marine ou Melenchon selon votre préférence) , de faire une interview avec un journaliste, puis de poser les mêmes questions à M, et vérifier si les réponses (ou plutôt prédictions) de Lambda ont été bonnes.
    Je pense qu’elle peut avoir un très bon taux de réussite.
    Auquel cas on pourra la renommer Languedebois ^_^

    1
  8. Il faut toujours s’intéresser à ce qui se passe aux USA en particulier dans les productions cinématographiques Actuellement sur Netflix je regarde deux séries : Another life et Perdus dans l’espace . Dans ces deux séries classées SF dystopique il y a la présence de deux robots humanoïdes , jusque là rien de nouveau, sauf que ces robots éprouvent des sentiments tels que l’amitié et l’amour

  9. L’homme n’est qu’un assemblage d’organes s’étant, sélection darwinienne, « mis » ensemble pour y créer un super organe appelé organisme. Ces organes, dont le cerveau, sont composées de cellules spécialisées interagissants entre-elles. Aucune d’elle prise séparément ne possède une once d’intelligence ou de conscience. Le tout réuni, oui.

    L’IA n’est qu’un assemblage de cartes électroniques ayant été mise ensemble pour y créer une « super carte » appelée robot. Ces cartes, dont les processeurs, sont composées d’éléments électroniques spécialisés interagissants entre-eux. Aucun d’eux pris séparément ne possède une once d’intelligence ou de conscience. Mais le tout réuni ?

    3
    1. Peut-on séparer la conscience/intelligence du fait d’être vivant ? Tu vas me dire qu’est ce qu’être vivant ? Inerte, animé, minérale, vivant, pas si simple.

    2. @François M « L’assemblage d’organes » s’étant, sélection darwinienne (ou pas) réalisé, ne constitue que le support énergétique et d’interface capteur/actionneur et à ce titre l’organe cerveau est comparable aux racks et cartes électroniques reliées en réseaux.
      Les processeurs de ces cartes ne sont pas vraiment spécialisés, en tout cas pas vis à vis de portions particulières du traitement global de l’information, même si le traitement en parallèle peut faire appel à des composants plus adaptés à un fonctionnement neuronal.
      C’est le logiciel mis en oeuvre et le paramétrage issu de l’apprentissage qui peut fournir une approche d’IA.
      Comme les interconnexions de neurones au cours du développement.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.