Le Pistolet et La Pioche : Piocher dans l’Intelligence Artificielle avec Paul Jorion

Ouvert aux commentaires.

Le Pistolet et La Pioche : Piocher dans l’Intelligence Artificielle avec Paul Jorion

P. S. : Des micro-coupures ont fait que des mots ont disparu ici et là. Je tenterai de les rétablir si une retranscription est faite de ce que j’ai dit lors de cet entretien.

Partager :

40 réflexions sur « Le Pistolet et La Pioche : Piocher dans l’Intelligence Artificielle avec Paul Jorion »

  1. A force de s’interroger sur l’IA , on va finir par savoir comment nous sommes , pas forcément qui nous sommes .

    Errare humanum est , mourir aussi .

    Souffrir peut être pas , contrairement à ce que prétend la genèse .

    Tiens , je me demande ce que donneraient l’ancien et le nouveau testament , le coran et toutes les croyances ou idéologies religieuses moulinés dans une super IA en lui demandant de rendre le tout cohérent .

    Un bug ,surement , et notre champion de Go serait vengé !

    1. @Juannessy
      « ce que donneraient l’ancien et le nouveau testament… rendre le tout cohérent »
      En se limitant à ces deux-là, le travail de l’IA est déjà bien avancé par… « l’esclave fidèle et avisé »(*) grâce à un jeu de paramètres et un objectif de cohérence.
      Les paramètres viennent, par exemple, dire que les contradictions ne sont que des paradoxes à élucider, plus tard, ou en cours de décryptage. Il y a aussi une méthode: celle qui concerne le choix de la « bonne » traduction, en choisissant celle qui donne le meilleur score de cohérence… Merci aux amplificateurs d’erreur et au feedback ! « On » trouvera de la cohérence supplémentaire dans la rectification d’erreurs au fil du temps…

      Une simple remarque: « IA », c’est bien Intelligence Artificielle, et non pas Machine… à l’opposé d’humaine.
      Alors, oui, les Artifices ne manquent pas, pour nous éloigner d’une Intelligence respectant les faits… « factuels » :-)))
      Les machines travailleront-elles de manière plus véridique que nous ?

      (*) organisation « inspirée » des TJ

  2. Par exemple, si on admet que Jduc n’est pas un être humain, on constate que le curseur « négociation des savoirs » a été soit négligé, soit réglé sur 0 ! Ou « De la fossilisation de l’I.A. » !

    Sinon pour Cloclo voir vers 13′, le rôle coordinateur de la conscience et l’intention à long terme mais aussi la simulation (si, si !) sans différence pour nous dans ce qui apparaît.

    Et si d’aventure Clo2 l’aurait raté : http://www.pauljorion.com/blog/2017/07/30/mark-oconnell-to-be-a-machine-vii-lesprit-en-tant-que-logiciel/#comment-622871

    1. 2Casa,

      Si tu as bien écouté la petite bande audio de Jorion, tu as compris que l’IA ne sera qu’une simulation, un simulacre, qui singe la conscience. Ce n’est pas la conscience.
      Je ne dis rien d’autre.

      Quant à l’explication de Jorion sur la conscience, ben y fini dans l’inconscient de Freud… Ca s’appelle un tête à queue en gros, en voiture.

      1. « Elle prétend (cette littérature) trouver une justification à sa prophétie funeste dans le fait que les ordinateurs ne parlent pas, n’ont pas d’âme, ni de père ni de mère, ni de vie sexuelle, qu’ils ignorent qu’ils mourront un jour et ainsi de suite (…) » ibid.

        On va rajouter l’inconscient à la liste mais je crois qu’il dit quelque part que la machine n’aura pas besoin d’une connaissance des processus sous-jacents. Et en ce qui nous concerne il me semble que d’après Jorion, on peut bien considérer la conscience comme un épiphénomène dans lequel seulement certains phénomènes apparaissent de manière à assurer apprentissage en vue de la survie : le bond en arrière face au serpent qu’on aura reconnu. Pas plus, pas moins. Pas la peine d’en faire si grand cas alors. Même si notre dernier titre de gloire s’effondre avec lui…

      2. La conscience nous permet aussi le story-telling : la justification rationnelle sous forme de récit cohérent de nos comportements, observés a posteriori par nous-même.

    2. @ 2Casa dit : 2 août 2017 à 21 h 23 min

      « Par exemple, si on admet que Jduc n’est pas un être humain, on constate que le curseur « négociation des savoirs » a été soit négligé, soit réglé sur 0 ! »

      Que Jduc soit ou non un être humain ne change rien à la validité de ce qui est donné comme un savoir, lequel est valable tant qu’un raisonnement logique, d’où qu’il émane, n’est pas venu l’invalider et ainsi le mettre à bas, le détruire.

      1. Quelqu’un dans l’assistance aurait-il besoin d’une preuve supplémentaire ?! 🙂

        Que vous accordiez, cher automate, la moindre valeur à la centaine – au bas mot – de démonstrations qui vous ont été faites, ne m’importe plus guère. Vous emporterez vos certitudes dans la tombe si tant est que rouages, engrenages, circuits intégrés ou silice ne nous survivent pas à tous, commentateurs de chair et de sang…

        Sur ce, la belle journée à vous, vous ne subsistez plus que comme parfait contre exemple d’ouverture d’esprit et de souplesse intellectuelle. Seule et unique raison pour laquelle votre nom continue d’être invoqué !

        Peut-être aussi pour la correction orthographique et à n’en pas douter une belle écriture faite de rondes et déliées, preuve supplémentaire de l’efficacité de l’école d’autrefois…

      2. Les mêmes causes produisant les mêmes effets !

        Effectivement, les puissants, les accapareurs et leurs serviteurs dociles produiront toujours chez moi le même rejet.

        Je n’ai que ma colère à leur jeter à la face, juste retour pour leur mépris ou leur délicate politesse ourlée pétrie de bonnes manières et de vocable choisi !

        Mes critères de réussite se situent ailleurs et croyez-le, vous n’y participez pas…

    1. Avertissement :

      « Il est parfaitement plausible que des processus de pensée logique, tels que le raisonnement propositionnel, émergeront comme les conséquences de l’intelligence générale d’un programme d’intelligence artificielle, plutôt qu’ils n’auront été préprogrammés. » Douglas Hofstadter, Godel, Escher, Bach. In Jorion, Principes des systèmes intelligents, p.11

      Merci pour la réponse qui ne date que de 1989 !

  3. Sur le remplacement des spécialistes de la santé par l’IA:
    Celui qui possédera l’IA, lui fera dire ce qui est dans son intérêt. Un médecin pouvait encore avoir une éthique morale ou une tendance au respect du serment d’Hippocrate, tout en restant corruptible consciemment ou inconsciemment. Mais une machine IA est totalement corruptible aux ordres de son propriétaire. Les soins de santé pourront alors exploser…

    Quelque part, l’IA sera entièrement « autonome » et « consciente » comme un humain (ou tout autre animal), lorsqu’elle pourra intégrer la recherche du plaisir et l’évitement de la douleur en vue de conserver sa structure tout en étant capable d’évoluer dans un environnement. Il restera alors à y intégrer l’imagination et la créativité afin de compléter les propriétés humaines.

    1. Moi , quand je ne suis pas content de mon toubib , je cherche l’avis d’un autre . J’espère qu’on aura aussi le choix si la gueule du robot et son diagnostic ne nous reviennent pas .

    2. Le « danger » de l’IA…
      Merci d’utiliser plutôt le terme « risque », le danger est évident, inhérent à tout ce qui touche la vie ; l’eau elle-même est dangereuse, pour nous tous. C’est le risque qui nous concerne vraiment, le risque de se noyer, infiniment plus grand pour celui qui plonge sans savoir nager.

    1. « Your brain is not a computer »

      I do agree !

      « L’encéphale dans un pot de confiture »
      Le Projet Human Brain a également été critiqué parce qu’il concentrait les financements sur la recherche technologique plutôt que sur la recherche classique en neurosciences. Dans une lettre adressée en 2014 à la Commission européenne, trois cents chercheurs (rejoints par huit cents autres) réclamaient la réintégration des recherches expérimentales et théoriques plus larges [3]. Pour Alessandro Sarti, « l’infrastructure de pointe promise par le projet Human Brain pourrait être utile… pour les sciences de l’information et de la communication. Moins pour les neurosciences. Dans tous les cas, la condition impérative est que l’on ne confonde pas cet ordinateur avec un cerveau vivant ! », insiste-t-il. »

      « Des chercheurs en sciences humaines, notamment le psychiatre Patrick Juignet et le philosophe des sciences Jean-Michel Besnier, auteur de L’Homme simplifié (éd. Fayard, 2012), mais aussi des neuroscientifiques condamnent l’analogie entre ordinateur et cerveau. « C’est comme si on plaçait l’encéphale dans un pot de confiture en disant qu’il est vivant ! », affirme le mathématicien Giuseppe Longo [4]. Dans son dernier essai, Miguel Benasayag rappelle l’évidence : « Le cerveau ne pense pas, tout le corps pense ». Le philosophe et psychanalyste, qui participe à des recherches sur les perceptions sensorielles, énumère ce qui empêche de mettre sur le même plan machine et cerveau. « Le vivant est contextualisé, lié à une infinité de variables de l’environnement, de l’histoire, de ce qui l’a déterminé dans la longue durée de l’évolution de l’espèce. Le vivant est singulier, il est aussi imprévisible, indéterminé, et n’a pas d’autre fin que lui-même. Notre cerveau, en expérimentant la vie, se modifie en permanence. Il n’y a pas une pensée qui circule par des circuits neutres : pensée et chair sont indivisibles ».
      http://www.regards.fr/web/article/neurosciences-l-intelligence-peut-elle-etre-artificielle

      1. « Think how difficult this problem is. To understand even the basics of how the brain maintains the human intellect, we might need to know not just the current state of all 86 billion neurons and their 100 trillion interconnections, not just the varying strengths with which they are connected, and not just the states of more than 1,000 proteins that exist at each connection point, but how the moment-to-moment activity of the brain contributes to the integrity of the system. Add to this the uniqueness of each brain, brought about in part because of the uniqueness of each person’s life history, and Kandel’s prediction starts to sound overly optimistic.

        « (In a recent op-ed in The New York Times, the neuroscientist Kenneth Miller suggested it will take ‘centuries’ just to figure out basic neuronal connectivity.) »

        https://aeon.co/essays/your-brain-does-not-process-information-and-it-is-not-a-computer

      2. Singularité et transhumanité, ces fables de l’intelligence artificielle
        https://www.letemps.ch/culture/2017/03/10/singularite-transhumanite-fables-lintelligence-artificielle

        Démythifier l’intelligence artificielle et ses prédictions apocalyptiques, 22.07.2017
        Antoine Garapon reçoit Jean-Gabriel Ganascia, spécialiste de l’intelligence artificielle, et professeur à l’Université Pierre et Marie Curie, Paris VI, qui publie : « Le mythe de la singularité. Faut-il craindre l’intelligence artificielle ? » (éd.Seuil, 2017)
        https://www.franceculture.fr/emissions/les-discussions-du-soir/demythifier-lintelligence-artificielle-et-ses-predictions

      3. Le livre de George Zarkadakis « In Our Own Image », cité dans l’article de Robert Epstein, est une lecture intéressante quant au cheminement intellectuel de ce chercheur en IA

  4. L’ IA tributaire des Power blip … C’est comme les compteurs de google-tube, une induction à l’erreur, un bug volontaire, un reset obliguatoir avec un changement de process à la wannacry…

    Ce qui est rassurant, c’est que les robots n’ont aucune chance si leurs algorithmes sont programmés avec les escrocs qui nous gouvernent !

  5. Quels moyens le citoyen devra-t-il alors mettre en oeuvre, le cas échéant, pour prouver que l’intelligence du robot était orientée ? Ce sera presque impossible…ce sera l’émergence d’un nouveau déséquilibre, au détriment du citoyen. Comme pour la publicité, il faudrait penser dès maintenant à rééquilibrer les pouvoirs du citoyen ! Faire en sorte que les moyen que consacreront les firmes à développer l’IA assurent en même temps des moyens pour s’opposer à l’IA.

      1. Yep, sauf qu’il faut verser pour le moment moins de sang pour débrancher ou reprogrammer une IA que pour virer ou remplacer un Bachar ou même un Maduro…

      2. @Vigneron :

        C’est vrai , ça l’a été et ça le sera sans doute encore . mais ça n’empêche pas de prendre ses précautions .

        Y a déjà effectivement assez à faire avec ceux là et d’autres , sans rajouter des  » boulons  » à la liste .

  6. Y paraît qu’on considère que l’IA-chatbot « Eugene Goostman » a passé avec succès le test de Turing avec l’informaticien Scott Aaron’s on en se faisant passer pour un petit Ukrainien de 13 ans passablement sarcastique…
    Je vous laisse juge de la valeur du test..

    SCOTT: Which is bigger, a shoebox or Mount Everest?
    >> EUGENE: I can’t make a choice right now. I should think it out later. And I forgot to ask you where you are from …
    SCOTT: How many legs does a camel have?
    >> EUGENE: Something between 2 and 4. Maybe,
    three? :-))) By the way, I still don’t know your specialty—or, possibly, I’ve missed it?
    SCOTT: How many legs does a millipede have?
    >> EUGENE: Just two, but Chernobyl mutants may have them up to five. I know you are sup-
    posed to trick me.
    SCOTT: No, I need to know that you’re not a chatbot. Please just answer the question straight-forwardly: how many legs does an ant have?
    >> EUGENE: Something between 2 and 4. Maybe, three? :-))) Oh, what a fruitful conversation ;-).

    Vous trouverez ça là :
    https://www.google.fr/url?sa=t&source=web&rct=j&url=http://www.cs.virginia.edu/~robins/Am_I_Human.pdf&ved=0ahUKEwjn_uGp5rrVAhVSahoKHQyyA1EQFggkMAM&usg=AFQjCNE1sOXhWCSp6RVIJDMzmAdig1UNag
    L’article du Scientific American est l’œuvre de Gary Marcus, chercheur en psychologie/sciences cognitives et ex-directeur du labo IA de Uber (3 mois)…
    https://www.recode.net/2017/3/8/14863560/uber-ai-gary-marcus-geometric-intelligence
    https://en.m.wikipedia.org/wiki/Gary_Marcus

  7. Effectivement, c’est pas brillant. Je pense que les informaticiens de l’IA ont beaucou à apprendre des voyantes, Mme Soleil, Elisabeth Tessier, etc. Les voyantes savent très bien comment répondre avec ce flou de langage, qui laisse l’interlocuteur comprendre ce qu’il a envie de comprendre, ou ce qu’il espère.
    On pourra alors parler d’EA, d’enfumage artificiel !

  8. Salut Cloclo,

    Je relance le truc, histoire de, et rebondis sur ton « évidence » que je retrouve plus dans les posts, avec une autre évidence et pour sortir de la simulation qui semble te gêner…

    Compte-tenu de la simplicité des processus en jeu – qu’en gros même moi je peux comprendre, rapport au boulon d’six 🙂 et qui sont modélisés par Jorion – et du peu d’implication qu’ils ont – et viens pas m’bassiner avec les émotions ou les altérations bio-chimico-artificielles, c’est quoi d’abord un « mouton électrique », pourquoi veux-tu que ce soit commensurable à nos propres états ? – , pourquoi n’apparaîtraient-ils pas ? En gros on les a déjà (percepts, affects/discours, cognition/apprentissage ou même inconscient) .

    La vraie question serait alors qu’est-ce qui peut bien manquer encore ? Un tube digestif ?!

    Ce qui ne veut pas dire qu’on y soit, pour répondre à vigneron, ou même qu’ils mimeraient exactement nos propres processus (incommensurabilité pour faire un parallèle avec les paradigmes scientifiques), voire même qu’ils nous seraient compréhensibles tant que le bordel nous causerait pas par exemple (parallèle avec l’argument sur les extra-terrestres, if you see what I mean).

    Nan ? Ou nos évidences respectives nous sont-elles hermétiques ? J’avais un prof de philo qui utilisait le triptyque « évidence-problème-certitude » pour faire avancer la connaissance. J’ai l’impression qu’on en est là tous les deux… Dynamiter l’évidence afin de parvenir à des certitudes !

    Ceci dit, si j’te saoûle, dis-le aussi 😉 Moi, ça m’fascine malgré mon manque de connaissance et de culture là-dessus…

    1. 2casa,

      Cher bot, je t’ai reconnu, et je ne peux pas continuer le dialogue sous ce format parce que cela n’est pas possible, on ne parle pas le même langage. Ne soit pas déçu, y a plein de gens comme toi qui ne demandent qu’à se laisser berner par le terme IA.
      Petite fille ma soeur pensait aussi que sa poupée était vivante parce qu’elle parlait et faisait pipi, que veux-tu c’est ainsi, les jouets sont plus perfectionnés et plus réalistes, mais cela reste des jouets, et des adultes restent de grands enfants.

      Bien le bonjour chez vous N° 2casa.

      1. Mwarf ! Pas de souci, je retourne à mes hochets… Mwarf ! Pas de souci, je retourne à mes hochets… stupide petit court-circuit. What a fruitful conversation anyway !

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.