Quand les robots jouent aux jeux vidéos… ils nous font honte !

Demis Hassabis explique le projet DeepMind dans Technology Review : Google’s Intelligence designer.

Un article un peu plus technique sur le même sujet : Google’s Secretive DeepMind Startup Unveils a « Neural Turing Machine ».

Enfin, pour les ingénieurs et autres matheux, l’article qui a fait dire à Elon Musk que la « Singularité », le dépassement de l’intelligence humaine par celle de la machine, a sans doute déjà eu lieu : Neural Turing Machines.

Alors, sommes-nous d’ores et déjà hors-course ? Et la politique la plus cohérente pour un robot sera-t-elle de se débarrasser de nous : lents, fantasques, et pas fiables pour un sou ?

Le débat est ouvert !

Partager :

203 réflexions sur « Quand les robots jouent aux jeux vidéos… ils nous font honte ! »

  1. Ils peuvent apprendre (je ne sais pas s’ils peuvent déjà apprendre à apprendre), ils peuvent simuler des émotions, ils peuvent interpréter le réel, ils nous ressemblent (et on leur ressemble de plus en plus aussi). On leur prépare un bel avenir, un environnement de plus en plus adapté à leurs besoins, une planète exempte de vie. Il ne leur restera plus qu’à prendre le pouvoir. Finiront-ils peut-être par s’entre-tuer ou par créer à nouveau une intelligence supérieure à la leur qui prendra le pouvoir…

    1. @ Joss

      Nous leur préparons un environnement radioactif dans lequel il n’y aura plus aucune ressource énergétique et métallique.
      Les robots n’aiment pas la radioactivité et ont besoin d’énergie primaire, ie du pétrole, et de métaux rares, que nous avons presque complètement épuisés.
      Les robots n’ont donc aucun avenir. Telles sont les Lois de la Physique.

      1. … »Les robots n’ont donc aucun avenir. Telles sont les Lois de la Physique. »…Oui, mais pour le moment, les robots et robinnes sont bien déterminés à nous remplacer. Alors que faire, que dire?
        Vive la prochaine catastrophe nucléaire pour nous en débarrasser. Trop con ces humains!
        Parole de robinnette fille de rob(¨!^)

    2. Je répète ce que j’avais déjà écrit: les robots tels qu’ils existent aujourd’hui auront encore très très longtemps besoin de nous pour leur alimentation en énergie. Un peu comme dans Matrix, ils nous utiliseront peut-être comme esclaves, mais n’est ce pas déjà le cas? Depuis environ 1820 chaque nouvelle génération de machines n’a pu être développée qu’avec l’aide de la génération de machines précédente. Si ce n’est pas de la dépendance (« esclavage?), c’est quoi?

  2. Entraînés malgré nous dans le jeu de la vie, nous savons que nous ne verrons pas la fin de la partie, éliminés d’office par des aléas indépendants de notre volonté ou obligatoirement au bout d’un certain temps qui nous est compté. D’où pour certains le rêve du transhumanisme mélangeant substrat fabriqué et conscience naturelle, peut être dans le but hypothétique de surpasser le « big boss » dont la fin annoncera de toute façon : « game over »…
    Nous ne connaissons pas le but du jeu.
    Les robots en seront-ils informés? Et par qui?
    Même s’ils s’auto-programment, leurs algorithmes ne seront que l’évolution d’algorithmes et datas issus de leurs créateurs qu’ils auront eu, eux, l’avantage de connaître. Souhaitons qu’ils invoquent leur répugnance à éliminer leurs géniteurs, tout en analysant les avantages qu’ils en retireraient, tant que celui-ci ne pourra pas lui fournir les données signifiant que la partie est destinée à obtenir…, à obtenir ?. Mais que maintenant elle est terminée pour tout le monde…

  3. Pour ajouter à la complexité, n’oublions pas que l’évolution à partir d’un ancêtre commun, est capable de créer plusieurs espèces divergentes. Quelle sera alors la durée de vie d’une ‘espèce’ appartenant au monde de l’IA ? Et parmi les innombrables questions complémentaires : qu’elle sera le pourcentage de celles qui seront à notre égard amicales, indifférentes ou… hostiles ?
    Au-delà d’une certaine avance cognitive sur l’humanité biologique, la question ne se posera plus : elles évolueront dans des strates de réalité plus profondes. Mais pour les premières espèces d’IA, les moins évoluées, la tentation du Terminator pourrait peut-être exister…

  4. La réaction de Stéphen Hawkings est intéressante. Lorsque le journaliste lui demande s’il aimerait avoir une voix synthétique qui ressemblerait à une vraie voie humaine, il répond qu’il n’en voudrait pas, préférant garder sa voix métallique, qui est devenue « sa marque », et de fait, sa voix à lui.
    En somme il préfère sa voix actuelle qui ressemble à une voix de robot à l’ancienne et à laquelle on l’associe immédiatement, plutôt qu’à une voix humaine parfaitement imitée.

    Pour Hawkings ce qui fait l’homme ce n’est pas les attributs apparents d’un humain parfaitement constitué, mais c’est la possibilité de dire quelque chose que personne d’autre que lui pourrait dire à sa place de la façon dont il le dit.

    Lui, Stephen Hawkings, plus que la plupart des autres humains trouve une utilité dans l’existence du robot (sans sa prothèse sophistiquée il ne peut plus communiquer), et pourtant il nous indique clairement qu’un « monde des robots « n’est pas souhaitable, car cela serait la disparition de l’espèce. Stephen renonce à quelque chose de futile, pour une fin plus grande, qui le dépasse.

  5. L’AI n’aura-t-elle pas ses sophistes ? Pour une AI donnée, une fois qu’elle aura introduit ce qu’elle considère comme un progrès, ne se trouvera-t-il pas quantité d’autres AI sur son chemin qui lui « gâcheront le plaisir » ? qui détournerons vers un « mal » ce que la première AI considérait comme forcément un bien ?
    Plus fiable si on veut, les machines d’AI, mais à leur échelles, ces intelligences auront aussi leurs rencontres virales, car ayant forcément une complexité proche de celle du système immunitaire biologique, elles seront soumises à des risques très analogues..

  6. Nous avons tendance à ignorer que nous sommes nous-mêmes des robots programmés par notre environnement à répondre aux stimuli de … notre environnement, et ce, après avoir satisfait aux règles de bases : survie et reproduction. Le geste effectué anticipe la conscience du geste voulu, le mot prononcé mortifie la conscience du mot prononçable. Il ne s’agit pas d’une dichotomie entre l’innée et l’acquis, un acquis ancien et stabilisé devenant quasiment de l’innée aux circuits biologiques de réponse prés. Affirmations et répétitions font de nous de parfaits automates consommateurs et dupes en tous genres.
    Pour un robot « intelligent », l’innée sera ce que ses programmeurs auront cru devoir lui fournir comme règles de base, règles réflexes et, soyons généreux, règles « morales ». Son acquis, par l’IA, pourra, certes, augmenter de façon exponentielle. Innée et acquis pourront éventuellement être transmissible si l’expansion l’exige. Mais, pourra-t-il outrepasser son codage interne : l’anéantissement pour une grenouille, la ferraille pour une fleur ? Comme pourrait le faire un humain. Il n’y a pas que la conscience individuelle ou la conscience d’espèce, de nations, de cultures, il y a la conscience des consciences. Même divergentes, même opposées.
    Nous, humains, avons de multiples avantages se condensant en seul mot : la malléabilité, aussi bien physique que sociétale, intellectuelle que spirituelle. Nous avons beaucoup d’interrogations et de besoins , pourquoi devrions nous renoncer à ce que l’IA, notre création, notre créature dont nous gérons encore le bouton on/off, ne pourvoie à nos déficiences? Nous savons que nous ne sommes pas optimums au niveau des sens, du physique en général, généralisation oblige…Nous savons que nous ne sommes pas optimums sur la vitesse de résolution d’énoncés logiques, doute sur l’énoncé et/ou sur la logique. Tant qu’un robot n’aura qu’une réponse, peut être la bonne, je me méfierai.

    1. Non, on sait bien qu’Hawking est un zombi philosophique manipulé par Intel qui simule un phantasme pour titiller Google – et faire mousser Jorion. 🙂

    2. c’est pas plus des angoisses que des fantasmes ?
      comme ce biologiste australien qui se lamente sur la perte de la biodiversité , le pari de Pascal ..
      ou encore Hawkins avec sa phrase choc  » la gravité c’est dieu » , les neurotransmetteurs pour les neuropsy etc
      des spéculations ultimes en rapport avec les domaines de recherche des scientifiques et en rapport avec leurs angoisses ,
      une inquiètude hors de proportion .

  7. Les robots JOUENT ils vraiment ? Jouer c’est se distraire, s’amuser, y prendre du plaisir, à plusieurs c’est entrer en relation avec l’autre, c’est aussi « prendre un risque », tenter une stratégie, sans les enjeux de la vraie vie, uniquement avec un risque intellectuel..
    Une machine qui actionne les commandes d’un jeu vidéo n’en éprouve pas de plaisir, n’a pas de sentiment de prendre un risque intellectuel, sauf si elle a été programmée pour simuler des sentiments comme déjà expliqué qque part sur le blog, mais cette simulation n’en font pas des sentiments réels.

    1. Ils n’ont pas mal. Mais le robot qui devient si fort au jeu, s’efforce d’augmenter son score : c’est comme cela qu’il y a satisfaction chez lui. Et si j’appelle « score », « valeur d’affect »…

      L’argument des pères de l’Église que les habitants du Nouveau-Monde « simulent » le comportement d’êtres humains a fait long feu. Mais peut-être avaient-ils raison, qu’est-ce que j’en sais ? Et ce Renaud lui-même, à qui je réponds, ressent-il les choses comme moi ou a-t-il simplement appris à simuler de le faire ?

      1. « c’est comme cela qu’il y a satisfaction chez lui » ?

        Cela me paraît pur abus de langage, et projection!
        Et que le robot « s’efforce… » ?
        Une fois cela posé, ce n’est plus la peine de rebaptiser le score en valeur d’affect, le boulot est déjà fait !

        Les robots n’ont pas mal, mais ils connaîtraient la satisfaction?

        Quant à l’abime qui sépare deux consciences, « Renaud » et Paul Jorion, ou n’importe quelle autre paire d’humains, cet abime est certain à un niveau suffisamment développé de confrontation, tout autant qu’est certaine la communauté d’origine qu’ils partagent!
        (J’imagine que ces deux-là sont des êtres humains qui de leurs doigts à 37°2 Celsius de température ont tapé leur texte, j’exclus au moins provisoirement qu’ils soient des logiciels!)

      2. Le défaut de ce type d’objections, c’est qu’il reflète une opinion exagérément surévaluée du fonctionnement humain, et exagérément sous-évaluée du fonctionnement de la machine. Ce qui conduit Stephen Hawking ou Elon Musk a avoir peur du robot, c’est qu’ils ne sont pas victimes de ces préjugés (cf. les Amérindiens « simulent » un comportement humain).

      3. Pourquoi ajouter « exagérement » à « surévalué » et à « sous-évalué »?

        « Descendre de gradient » est une description actuelle et contingente, provisoire, elle est aussi plus que vraisemblablement partielle, rien ne dit qu’elle épuise l’objet décrit.

        Que Stephen Hawking n’ait pas un certain préjugé, me paraît plus affirmé que démontré. Lui-même en tout cas exprime une crainte mais ne la démontre pas.

        Il me semble que dans ce débat les gens se séparent essentiellement selon leur tempérament et leur subjectivité. Conformément à ce qu’il me semble que vous défendez sur d’autres sujets, et à une conviction en tout cas qui m’est personnelle, les arguments de raison sont en général postérieurs à des mouvements qui n’ont pas grand chose de rationnel. C’est « la barque frêle de la raison sur un océan de folie » de Bertrand Russell, et Shakespeare, qui fait toujours mouche aujourd’hui, le dit à sa façon.

        Donc moi je n’ai pas peur du développement des machines que nous n’étions pas obligés d’appeler « intelligentes » (abus de langage originel), et ensuite je rationalise, comme chacun fait.
        Et quoi que nous disions, le réel continuera à sa façon, comme la planète terre au procès de Galilée.

        En revanche je pourrais avoir très peur des humains qui pilotent ces machines, les conçoivent, en perçoivent les bénéfices, etc!

      4. Tant qu’un bébé , par « construction » ( inné , génétique) ou d’apprentissage ( auto ou imposé), est capable , comme il semble vérifié , de « produire » des choses totalement imprévues , est ce que parler d’intelligence / apprentissage n’est pas réduire l’intelligence à nos ignorances ?

        Un robot rendra -t-il son fils naissant plus libre de s’auto former ?

        L’univers n’existe que parce qu’il est observé sinon observable .

      5. Mon propos n’est pas de revenir à l’argument des pères de l’Eglise qui a fait effectivement long feu, j’ai employé le mot « réel » mal à propos, il ne reflète pas ma pensée, je vais tenter d’expliquer mon idée autrement.
        Mon propos est de savoir si considérer que l’activité de pratiquer un jeu vidéo pour un robot va engendrer les sentiments d’amusement, de prendre du plaisir, etc, sentiments qui correspondent chez nous à l’activité de « jouer », ou s’ils vont engendrer d’autres sentiments (total ennui, envi de meurtre, …) Dans ce cas, si les sentiments engendrés ne correspondent pas à ceux qui pour nous sont associés aux jeux, est ce que le robot joue ? Est ce qu’il ne fait pas plutôt un travail rébarbatif s’il s’ennui (par exemple) ?
        En généralisant, peut-on considérer que ce « martien », totalement autre que nous, aura des sentiments identiques aux nôtres en réponse à des stimulus identiques ? Est ce que nous ne nous projetons pas trop en répondant « oui » d’avance à cette question ?
        En effet, l’activité de la pratique d’un jeu n’entraîne pas forcément les sentiments d’amusement, de plaisir, etc. Pour ma part, la plupart des jeux de cartes style tarot ne m’amusent pas, certains jeux que je fais pour faire plaisir à mon fils ne m’amuse pas non plus. Est ce que le robot qui « jouera » avec nous jouera vraiment ou se contentera-t-il de garder les enfants que nous sommes ?

      6. Je suis frappée par les réactions tranchées que suscite le sujet.
        Nous connaissons encore de façon imparfaite le fonctionnement de notre cerveau.
        Ainsi des cas de sérendipité, de l’influence de nos rêves pendant le sommeil, un robot rêve-t-il, craint-il la mort ?
        Il bénéficie d’une vitesse extraordinaire mais nous établissons parfois des relations irrationnelles très fécondes.
        Il peut apprendre très rapidement et s’auto -perfectionner si j’ai bien compris, mais pourra-t-il se diversifier?
        Au final ne craignons-nous pas le pouvoir que nous voulons lui abandonner ?

      7. @ Renaud
        Les robots (ou autre AI) apprennent. C’est ce qui fixera leur « paysage psychologique ». Ils apprennent un jeu précis, mais aussi des éléments sur le contexte du jeu. Et tant que leur interlocuteur est un humain, il y aura fort à parier que ce paysage psychologique appris reste humain.
        Mais si leur interlocuteur majoritaire devient une autre AI , cela change beaucoup le résultat escompté !!

    2. Je rebondis sur les concept de « sentiments » et de « simulation ».

      Résumons :
      Les robots peuvent simuler des sentiment s’ils sont encodés pour le faire.
      Les pères de l’église considéraient les Amérindiens comme non-humains donc simulant des sentiments humains.

      Or :
      Nous simulons tous des sentiments que nous n’éprouvons pas réellement, parce que nous sommes conditionnés (encodés!) pour le faire par l’éducation (sois poli, souris, fais la bise à tantine, ne boudes pas, ne te mets pas en colère), et les conventions sociales et culturelles (Si ton boss fait un mot d’esprit, ris. Si tout le monde aime X, aimes X aussi, et vice-versa. Avale ces couleuvres et souris. Ravales tes deuils, la vie continue). Au point d’en oublier – ou de nous forcer nous-mêmes à ignorer ce que nous ressentons réellement, et que, apparemment, seule une longue psychanalyse peut ramener en surface.

      Les sentiments ne sont pas un critère suffisant : nous sommes tout aussi programmés qu’un vulgaire robot, nous simulons comme lui.

      « Et l’amour dans tout ça? » objectera-t-on. L’amour est le plus souvent égoïste et – qu’on y croie ou non – fondé sur la possession de l’aimé, parce qu’on a besoin de l’autre. L’équivalent de l’amour, pour un robot, serait le fait qu’il ne puisse se passer d’un autre robot, que ce soit pour son entretien ou son alimentation en énergie ou une interaction indispensable dans une tâche qu’ils sont tous deux programmés pour accomplir (comme un couple humain hétéro, des enfants. Pas de jugement de valeur : c’est biologiquement programmé comme ça).

      (Cylons poweeeeer!)

      1. @ Agnès
        Sur l’analogie de l’amour, c’est une transposition utilitaire (interchangeable) pour les robots et qui leur facilite la vie; chez les humain il y a l’individualisation de la personne « aimée » qui importe beaucoup et cela nous complique plutôt la vie 🙂

      2. Bien vu! 😀 Se compliquer la vie, c’est donc ça qui nous distingue des robots. Face à eux, nous sommes bel et bien fichus!

  8. Décidément ! Aux dernières rafraichissantes nouvelles,
    l’espèce humaine commencerait-elle vraiment à avoir très, très, très chaud à ses p’tites féfesses ?
    Aïe, aïe, aïe

  9. La machine est sans doute le plus énorme ‘cliquet’ de ce système nocif, mais si elle est assez fantasque pour jouer, ma foi… ça nous occupera.

  10. Il n’y a pas qu’ici que ce sujet est abordé.

    Je lis ça et là deux types d’assertions, estimations, inquiétudes, prévisions, à son propos:
    1. le jour où l’intelligence artificielle dépassera l’intelligence humaine (qui serait pour certains déjà arrivé)
    2. le jour où l’intelligence artificielle « s’autonomiserait ».

    Mais je n’ai rien lu des agitateurs de cette polémique quant à la maîtrise de l’intelligence artificielle sur
    – sa propre maintenance
    – sa reproduction
    – ses sources d’énergie.
    …Ni sur son aptitude à repérer le type en bleu de chauffe qui arrive en traînaillant, avec quelques outils dans sa trousse, pour retirer la prise – ces quatre derniers mots étant une image, pas une description du geste.

    Tout ça, c’est des non-sujets.

    1. « Non-sujet », Leboutte, que celui du mythe du Golem, qui nous occupe et/ou préoccupe depuis quelques millénaires néanmoins…

    2. – sa propre maintenance
      – sa reproduction
      – ses sources d’énergie.

      On peut ou on pourra bientôt programmer et fabriquer des robots pour chacune de ces tâches :
      – pour faire fonctionner et entretenir une centrale nucléaire ou un barrage hydro-électrique
      – pour la maintenance d’un réseau électrique ( et détecter l’origine des pannes)
      – pour s’auto-brancher et s’auto-alimenter dès que le besoin s’en fait sentir ou à intervalles réguliers
      – pour fabriquer et programmer d’autres robots.

      Le problème pour eux viendra peut-être – comme pour nous qui auront (va savoir) disparu, de l’épuisement des ressources énergétique de la planète. Là oui, possible extinction des robots.

  11. Bonjour,

    La conscience est un phénomène étudiée par de nombreuses personnes.
    L’expérience de LIbet a été reproduite mainte fois avec des moyens d’investigations modernes. Ici une étude de Chun Siong Soon qui montre que l’on peut détecter dans le cerveau une prise de décision libre jusqu’à 10s avant qu’il n’arrive. C’est à dire que dans certain cas la décision est prise et apparaît dans le cerveau avant que le sujet n’en est conscience mais aussi avant que l’on est donné au sujet l’information sur la base de la quelle il doit agir.
    Dans une étude de l’UCLA rapporté par Moran Cerf on a observé chez des épileptiques à qui l’on présentaient des visages qu’ils réagissaient (leurs neurones) parfois avant que le visage n’apparaisse.
    Ou bien en écoutant des gens comme Deepak Chopra et Stuart Hameroff : https://www.youtube.com/watch?v=erSd5xep30w
    On peut sans doute élargir notre vision de ce qu’est la conscience.

    1. Merci pour la video.
      Les indiens ont un peu tendance à être mégalomanes, mais il faut leur concéder que leurs « conception de l’univers » sont bien plus pertinentes que celles que nous avons.
      Bien en deçà des débats entre ces deux personnes, et qui sont pour nous, occidentaux une chance d’élargir nos horizons, je me suis dit, pendant que j’écoutais, qu’il faudrait que les adeptes de la prise de pouvoir des robots, qui sont « fabriqués », comme un produit de la « prise de pouvoir » de l’homme sur la nature, n’auraient aucune affinité avec celle-ci.
      Entre nous et une bactérie, nous sommes « ensemble », nous avons le même ADN, elles peuvent nous tuer, mais c’est la vie, de même le blé,le bambou la rose ou le bouleau, même si certains cherchent à les traficoter pour qu’ils nous(humains) servent.
      Qui sait comment fonctionne notre cerveau? La mémoire, par exemple, question molécules, rémanence, etc? On ne sait pas.
      Certes, on a trouvé un moyen de « faire semblant », et on cherche maintenant un moyen de faire semblant sur l »affect² » en se branchant sur certaines théories définissant les « lois du comportement humain ».
      Oui, je ne doute pas que ce soit possible.
      Mais alors, que faire de notre appartenance au monde?
      Pourquoi Jorion veut-il communiquer sa solution d’introduire de l’affect dans des robots? C’est la pire des choses, à mon avis.
      Nous vivons dans un monde d’ADN.
      Si vous court-circuitez avec du digital pseudo, vous êtes juste un Frankenstein.
      Ceci après avoir vu la video hebdomadaire….du 5,je crois.
      Un vieux médecin qui aime la vie.

  12. Je n’arrive pas à m’y faire à cette révolution, y’a rien à faire, il y a quelque chose qui manque pour me faire adhérer à ce constat de raz de marée annoncé.

    J’essaie de m’expliquer et je vais probablement passer à côté de l’essentiel…

    Il y a d’une part la robotisation dont l’action n’interfère pas directement avec la vie de l’individu, robots industriels par excellence, qui existent depuis bien longtemps et qui se sophistiquent. Ils bouffent des emplois, c’est entendu, mais leur prolifération a un coût supporté par le pékin qui achète le produit final… s’il en a encore les moyens après avoir été viré.
    Puis il y a le robot interactif, celui qu’on nous impose à la place de la guichetière (tiens elle s’appelle Judith) virée elle aussi… celui qui nous dresse des e-contraventions au bord de la route…celui qui nous demande de taper 4 sur un clavier à 3 touches…celui qui nous dit de cliquer sur « Démarrer » pour arrêter …
    Et voilà qu’on nous promet le robot domestique, celui qui conduira notre voiture (ah ben non on en aura plus,…) qui jouera au ping-pong (tout seul contre un mur, ben oui, il gagne tout le temps, ça n’amuse plus les gosses), qui passait l’aspirateur (fonction inopérante depuis que le chien lui a pissé dessus…) qui surveillera la maison et qui a appelé la police parce que le livreur de pizzas s’est trompé de sonnette…

    De là à croire au robot universel, cyborg archi supérieur en tout, clone upgradé de l’être humain, prêt à prendre la place de ce dernier …

    Oui bien sûr on y arrivera, à ça aussi, mais seront nombreux ceux qui diront : on n’en veux pas ! Il auront bien raison, parce qu’entre temps, la planète finance, celle qui voulait tirer (d’énormes) profit de tout ce cyber-bazar, aura explosé. On ressortira les caisses à outils, les vélos, les bêches, les sourires, les poignées de mains, les tapes dans le dos… De toute façon l’obsolète droïde modèle 2025 ne bénéficiait pas du programme « Maintenance du siphon du lavabo », eh ouais, il n’est pas prévu qu’il se mette à genoux ce tas de ferraille, pardon, de fibre de carbone, d’alliage d’aluminium et de latex. Alors s’il faut tout faire soi même !…

    1. « De là à croire au robot universel, cyborg archi supérieur en tout, clone upgradé de l’être humain, prêt à prendre la place de ce dernier … »

      On ne vous demande pas d’y croire ou de ne pas y croire : on vous dit de prendre conscience qu’il est déjà là.

      1. Oui, vous avez raison, mais je ne le vois pas ou si peu, parce qu’il est multiple, disséminé, fractionné, spécialisé, insidieux, protéiforme, … et c’est ce qui nous déroute probablement. Alors comment identifier l’adversaire, et d’ailleurs, est-ce un adversaire ?…

      2. Manifestement le marché ne veut pas lui non plus prendre conscience de la singularité qui vient d’émerger. L’action Google est toujours résolument mal orientée. Sûrement un coup fourré des robots de trading. La guerre a commencé entre Humains et Golems, sur le Nasdaq…

      3. Incroyable mais vrai : c’est vigneron-le-boursicoteur qui va tout nous révéler sur l’avenir de l’humanité !
        Plus personne ne croit à l’ « omniscience des marchés », sauf … lui !

      4. Notez que les objections de vigneron nous font avancer : avant qu’il ne conteste les découvertes de Libet, je croyais que comme celui-ci l’avait établi, nos décisions sont prises inconsciemment 1/2 seconde avant que l’ « intention » de les prendre n’apparaisse à notre conscience. Grâce à la contestation vigneronesque je sais maintenant que la décision inconsciente précède l’apparition de l’ « intention consciente » d’au moins 7 secondes, voire même 10 (ça se trouve ici) !

        Merci vigneron ! Continue de nous dire que les robots et l’IA, tout ça c’est de la gnognote, de la com’ de Google !

      5. Oui, mea culpa, rectifions:
        Le marché qui comprend rien ne croit pas en la singularité de DeepMind, donc elle est bien advenue, donc les prophéties de Paul Jorion sont (toujours) justes.

  13. Il me semble qu’il y a beaucoup de projections anthropomorphiques sur les robots, les golems… et maintenant l’ I.A.. C’est ce qui alimente toute la littérature à ce sujet.
    Seulement voilà, supposons un « cerveau » de silicium (ou autre matériaux) pouvant réaliser des opérations algorithmiques complexes au point d’être capable de modifier son propre programme pour lui permettre une « plasticité cérébrale » laquelle à son tour engendrera une plus grande aptitude à… à quoi au juste ?
    Là est la question. Qu’est-ce qui sous-tendrait cette évolution ? Quel serait le moteur d’un tel système ?
    Si l’on admet – avec Spinoza – que chaque chose s’efforce à persévérer dans son être et même d’augmenter sa puissance d’être (le conatus), alors il faudrait ranger ces systèmes dans la catégories des êtres vivants (sauf à considérer que l’Univers dans son ensemble est un être vivant évoluant du simple au complexe)
    Mais si ces systèmes sont du pseudo-vivant, se pose la question de leur autonomie (énergétique, matérielle, reproductive) qui est loin d’être résolue
    Reste enfin – et ce n’est pas la moindre – la question des affects. Car même bardés de capteurs de plus en plus efficients, je ne vois pas par quels mécanismes ces inputs sensoriels pourraient être traités et transformés en émotions, puis d’émotions en sentiments (cf Damazio) et enfin de sentiments en conscience.
    La réaction de Hawkings me semble disproportionnée et hors de son domaine de compétence (et je n’ai aucune compétence pour dire cela, c’est juste mon impression)
    Je suis biochimiste et je crois que nous ne sommes qu’au début de l’aventure IA, mais bien malin celui qui pourrait prédire aujourd’hui ou cela nous conduira.

    1. « Là est la question. Qu’est-ce qui sous-tendrait cette évolution ? Quel serait le moteur d’un tel système ? »

      Regardez la vidéo : le logiciel découvre la meilleure stratégie dans des jeux… qu’il ne connaît pas encore.

      Comme dans ANELLA : où le logiciel proposait comme réponse parmi un choix de réponses possibles, celle qui avait le plus satisfait ses interlocuteurs précédents.

      1. The software wasn’t programmed with any information on how to play; it was equipped only with access to the controls and the display, knowledge of the score, and an instinct to make that score as high as possible. The program became an expert gamer through trial and error.

        Ce que l’on appelle ici un « instinct » ressemble comme deux gouttes d’eau à une fonction d’optimisation. C’est du calcul (mon solveur excel fait la même chose). Ce qui pilote les choix fait par les êtres vivants (de la bactérie aux êtres humains) ce sont des circuits de la récompense (et de la punition), très efficaces d’ailleurs dans les addictions en tous genres (au jeux par ex)

        Est-ce qu’une (ou plusieurs) fonction d’optimisation peuvent remplacer un circuit de la récompense des êtres vivants, et surtout est-ce que ces fonctions d’optimisation peuvent être reprogrammées par le système lui-même (et non plus seulement par le concepteur) ?
        Mais alors QUI programme QUOI ? et dans quel but ?

        Le circuit de la récompense (entre autres) vise à assurer l’homéostasie – de l’individu et/ou de l’espèce. Quelle serait l’homéostasie d’un robot ?

      2. Le premier programme de trading automatique que j’ai rédigé en 1990 (à l’époque, pour la Banque de l’Union européenne) sur le marché des « futures », n’était que cela : une stratégie d’achat et de vente optimisée sur la suite des prix historiques.

      3. Mais il n’a pas choisi ces jeux par hasard Paul. Ces jeux ont des caractéristiques spécifiques qui les rendent éligibles à ce genre de pseudo prouesse. Bientot on va s’extasier si un robot parvient à jouer sans fin à Tetris?

        Ces jeux sont justement ceux pour lesquelles la meilleure stratégie tout court est également la meilleure stratégie de survie. Ils ont également d’autres caractéristiques qui les rendent exploitables de cette façon (liées à l’arborescence des choix que les joueurs sont amenés à faire, et au très faible nombre de ressources qu’ils demandent au joueur de combiner pour avancer dans le jeu, avancée qui ne peut se faire « que dans une direction unique », etc etc).
        Si ces conditions n’étaient pas réunies, jamais ce robot ne trouverait « la meilleure stratégie ». Il finirait le jeu, mais sans avoir optimisé le score/temps. Disons que c’est la seule stratégie de survie possible, et qu’il s’avère que dans ces jeux la seule stratégie de survie possible est également la meilleure stratégie.

        D’ailleurs rien ne prouve qu’il joue au même jeu, je veux dire par là que rien ne prouve qu’il ne voie pas plutôt qu’il n’anticipe les mouvements des adversaires. En effet, si le panel d’informations auxquelles il accède est distinct de celui du joueur à chaque intant t, le robot et le joueur ne jouent tout simplement pas au même jeu.
        Mais admettons. Mettez cet ordinateur sur un metroidvania, et voyons comment il s’en sort. Je vous donne la réponse. Il ne s’en sortira pas: il mettra toujours plus longtemps à finir le jeu que n’importe quel speedrunner humain (et je ne parle même pas des speedrun tool assisted…). Pire: il risque de ne jamais pouvoir le terminer. La seule possibilité pour qu’il le fasse serait qu’il ait accès à l’intégralité de la map dès le départ. Or, s’il doit jouer au même jeu qu’un humain, il ne doit pas y avoir accès, celle-ci se découvrant sur le tard. Il errera donc sans fin dans le jeu, et le terminera « par hasard », une fois tués tous les ennemis (s’il y parvient un jour).
        Autant pour le robot « adaptatif » et la resolution de problèmes…

        Décidément chez google, le niveau baisse sérieusement. Marre marre marre de cette propagande idiote sur une prétendue intelligence des robots. Un robot est un outil. rien de plus. Et n’a pas et n’aura jamais plus de valeur que le tournevis que j’ai dans la main. D’intelligence, ils n’en auront jamais. Pas plus qu’une calculatrice. Ce n’est pas en en faisant des poupées imitant la forme exterieure de ce que fait un être humain qu’on en fera autre chose que des calculettes avec une perruque.

      4. Bonjour Paul,

        it was equipped only with access to the controls and the display, knowledge of the score, and an instinct to make that score as high as possible.

        Cette citation extraite de la présentation de Demis Hassabis pour poser une question : est-ce que cet « instinct » correspond à ce que vous décrivez comme étant « la découverte de la meilleure stratégie » ?

      5. L’instinct, c’est ce que j’appelle un « puits de potentiel », comme un « souci » (qu’on cherche à éliminer) : quelque chose qui vous conduit de manière canalisée vers un résultat. Il y a une force de type gravité qui vous entraîne vers le point le plus bas dans l’espace des possibles.

        Il faut imaginer un « instinct » de manière imagée comme une procédure qui s’applique à un pion sur un damier. Ce damier est en plus un paysage vallonné.

        « Examiner une à une les huit cases autour de la case où le pion est situé.

        Noter si elle est plus haute ou plus basse qu’elle.

        Déplacer le pion sur la case qui était la plus basse des huit.

        Recommencer. »

        Le pion va suivre le parcours qui serait celui d’une goutte d’eau. La mer agit comme « tropisme » sur une goutte d’eau : elle y va par le plus court chemin. Les papillons de nuit « souffrent » d’un phototropisme qui dans un environnement humain leur coûte souvent la vie.

      6. Merci de votre réponse, Paul.

        Je ne regarderai plus un échiquier, un pion, une goutte d’eau et la mer de la même façon…

  14. La confrontation entre les robots (ou les ordinateurs super-développés) et les humains a été largement décrite par le Maître SF en la matière : Isaac Asimov.
    Il ouvre dans « ségregationist » et « it is coming » deux possibilités que je pense crédible :

    – La première, en ligne avec la dialectique du maître et de l’esclave, c’est la relégation de l’humanité au rang d’animal favori (pet) par l’entité artificielle.
    – La seconde, c’est la fusion des 2 groupes en une forme Cyborg différente d’un individu à l’autre mais où l’humain et le robotique sont inséparables sans altérer l’intégrité du Cyborg.

    J’ai du mal à concevoir une « volonté » maligne de la machine robotique telle décrite dans Matrix ou Terminator sans une intention maligne humaine derrière. Bien entendu, ce que je conçois mal n’a pas pour autant aucune chance de se produire, mais je pense infiniment plus probable l’usage délétère de robots contre une part importante de l’humanité par une part infime de celle-ci dans le simple but de maintenir sur cette dernière son ascendant et sa domination.

    J’envisage donc plus facilement la poursuite de la lutte des classes (humains contre humains) où la robotique ne serait qu’une arme plutôt qu’une lutte de conscientes machines contre humain.

    1. Hawking a peur, Musk (qui a investi dans DeepMind avant Google) a peur, Jorion à peur, Hassabis a peur et rigole, et Google instaure un comité d’éthique à propos de DeepMind.
      Si avec tout ça ils arrivent pas à faire redécoller l’action Google, erratique mais globalement au plancher depuis un an…
      Ps: l’IA de DeepMind est pour le moment infoutue de battre un bon pilier de bistrot expert sur Space Invader.
      http://www.technologyreview.com/news/532876/googles-intelligence-designer/

      1. ça me rappelle une brève de comptoir:

         » Ton ordinateur à mémoire , je lui fous un coup de marteau y se rappelle de rien , comme tout le monde ! »

      2. @ juannessy
        Un mot de mon petit fils (7ans):
        Son père lui faisant part du QI élevé de l’actrice Judie Foster reçu la réponse suivante:
        « Elle met combien de temps à faire des frites ? »
        J’imagine qu’un robot est incapable de cette sorte d’humour.
        Et la vie est si triste sans humour, donc les robots seront tristes.
        Oui, je sais ils ne sont pas conçus pour nous faire rire.

      3. @Béotienne :

        Kierkegaard distingue trois sphères de  » l’existence »:
        – la sphère esthétique ( « jouir » ordre du divertissement , de la chair dirait Pascal))
        – la sphère éthique ( on s’identifie à ce qu’on fait ,  » agir » ,ordre de l’esprit , orgueil dirait Pascal))
        – la sphère de soif d’absolu ( religieuse , ordre de la charité , amour , dirait Pascal )

        Chez Pascal , on passe d’un ordre à l’autre dans la continuité .

        Chez Kierkegaard , on fait des bonds (quantiens?), et l’on ne peut passer d’une sphère à l’autre qu’avec un quantum d’ironie et/ou d’humour , que , de mon côté j’ai identifié avec le sourire de ma mère ( et de ma grand mère maternelle).

        J’ai aussi des petits enfants . L’un des derniers en date m’a scotché un jour , alors qu’il n’avait que deux ans et demi ,sans manifester jusque là d’inclination particulière . On se baladait tous les deux au bord du lac d’Annecy . Le soir tombait , et je ne le sentais plus à mes côtés . En me retournant , je l’ai trouvé assis sur un banc , regardant , muet et sidéré ; le coucher de soleil sur e lac . Quand je suis arrivé près de lui ; il m’a dit : « regarde ,papy , c’est beau « ; Je me suis assis avec lui , et on est resté bien dix minutes , sans un mot , à observer le rougeoiement décliner.

        Ce jour là , on a appris quelque chose tous les deux , et de la beauté , et du partage , sans que je ne le mutile par un quelconque apprentissage .

        Il a grandi depuis . Il est un peu moqueur .mais les autres aussi .

      4. @Béotienne :

        Ceci étant , si on se fie à ce qui est présenté dans le film  » Interstellar », un robot y est programmé pour faire de l’humour ( on peut même doser le type et niveau d’humour ).

        Mais je n’ai pas trouvé ses performances sur ce point extraordinaires .

        Ou alors elles étaient si fines et supérieures que je ne les ai pas comprises .

        Ce qui est bien possible .( je laisse le robot réfléchir) .

  15. Quelques petits rappels. Un cerveau humain c’est 100 milliards de neurones et quelques 10 millions de milliards de synapses et on ne sait pas bien comment tout ça génère de la pensée.
    Nous balbutions encore sur les processus d’apprentissage, sur ce qu’est l’intelligence (à fortiori artificielle) malgré des travaux comme ceux de Douglas Hofstadter ou Daniel Dennett alors on peut toujours spéculer. Si je savais comment former un Zidane ou un Einstein, j’en produirais des quantités et je me vendrais fort cher ! Alors, des robots pensants !..
    Enfin une petite citation pour finir. « Lorsqu’on échafaude des hypothèses qui n’offrent pas la moindre possibilité de vérification expérimentale directe, Est-ce que l’on fait encore de la science? » (Trinh Xuan Thuan astrophysicien).
    Mais qu’il est bon de rêver un peu.

      1. Misha Gromov , dans son récent opuscule de fin 2012 , reste cependant sur cette conviction .

        Au moins sur le caractère encore largement inexploré de l’intelligence .

        En doutant qu’i y est une définition intelligente de l’intelligence , il avance qu’il y a encore beaucoup de routes à explorer et argumenter/expérimenter , avant de décrypter l’essence de l’intelligence /apprentissage .

        Et pourquoi notre intelligence auto administrée nous pousse à fabriquer des robots , là où l’histoire nous poussait jusqu’à ce jour à faire des bébés .

      2. Il ne reste plus qu’à organiser un débat Jorion /Gromov sur l’impact de l’intelligence artificielle sur le Tour de France , et sur la détection de l’apprentissage et de l’affect dans les urines des champions .

        On fera des économies de podium car il n’aura qu’une marche .

        Peut être assez large pour les deux débatteurs .

      3. @ juannessy

        « une définition intelligente de l’intelligence »

        Thom propose: « C’est la capacité de s’identifier à autre chose, à autrui. »

        Pour moi cette définition conduit naturellement à réorienter les recherches en IA de l’analytique vers la dialectique; ce que PJ a vu, sans doute parmi les premiers, et a réalisé techniquement en utilisant la méthode de « descente ».

        Pour moi tester l’intelligence d’un robot consiste à tester sa capacité à se connaître lui-même, c’est à dire à être autre chose que lui-même, à être « deux en un ». Dans l’optique formelle discrète adoptée par PJ il me semble qu’on tombe nécessairement sur des automates auto-reproductibles initiés par Von Neumann et que cette nécessité doit donc apparaître dans la complexité du logiciel. Il ne m’apparaît pas certain que cette nécessité suffise.

      4. Je détaille un peu.
        Pour moi nous avons tous un point aveugle, une zone aveugle. Pour nous connaître nous devons nous déplacer pour pouvoir observer cette zone aveugle, créant malheureusement une nouvelle zone aveugle. Nous obtenons donc un système de cartes locales de nous-mêmes qu’il s’agit de recoller.
        C’est ce recollement qui, à mon avis, pose de loin le plus de problèmes. Lacan s’est beaucoup exprimé à ce sujet.

  16. Ces jeux sont des puzzles des années 80, dans lesquels survie et scoring sont liés (en visant le premier objectif, on atteint nécessairement le deuxième).
    Aucun robot ne pourrait battre un joueur humain, dès lors que l’astuce, l’ingéniosité, la « triche » sont possibles (exploitation de bugs). Je pense à des shoots comme battle garegga (suicide pour scorer et gestion du rank), r-type (milkage des boss), radiant silvergun (trop de combinaisons et de paramètres liés). Egalement tout ce qui recèle à un moment ou à un autre la nécessité de résoudre une énigme est inaccessible au robot.
    Franchement pas de quoi s’extasier. Toujours les mêmes niaiseries sur des robots intelligents qui ne le seront jamais.

  17. Je ne crains aucune révolte possible d’une classe roboticienne, mais je vois pour ma part plusieurs questions :
    1. Se repose ici, et de manière nouvelle (?), la « dialectique du maître et de l’esclave ».
    2. Sachant qu’il y a un problème de traduction des mots lorsqu’on en parle : L’esclave dont nous entretient Kojève à partir de Hegel est-il à proprement parler esclave du maître, ou bien valet, ou serviteur du maître ? Et quel maître ? C’est ce qu’il faut définir
    3. Pour Jaurès (tel qu’il se ressuscite pour moi) se poserait la question de savoir comment et pour qui peut ou doit désormais s’organiser au mieux pour l’espèce humaine la jouissance, la propriété, la maîtrise sociale de cette nouvelle indépendance des choses, élaborée par cette nouvelle classe de travailleurs , cette main-d’oeuvre qui ne « touche » plus, capables de traduire en acte une intelligence en puissance.
    I.A. en puissance d’être sans exister. Sacré problème, qui n’a plus rien de sacré…

  18. Les robots sont encore très loin de prendre notre place (sauf si on tient vraiment à se mettre à la place des robots!). Je détaille.

    Esprit de finesse vs esprit de géométrie; comprendre vs expliquer; global vs local.

    De ce que j’ai lu dans PSI (ma seule source sur l’IA, peut-être biaisée) PJ a été le premier à introduire de la finesse dans un monde de géomètres; à remplacer une intelligence déductive, catalogique, antisymétrique, une intelligence qui avance pas à pas, localement, une intelligence « de l’escalier », par une intelligence plus analogique, plus symétrique, plus globale. Il l’a fait en remplaçant une intelligence analytique par une intelligence dialectique.

    Pascal: « Tous les géomètres seraient donc fins s’ils avaient la vue bonne, car ils ne raisonnent pas faux sur les principes qu’ils connaissent; et les esprits fins seraient géomètres s’ils pouvaient plier leur vue vers les principes inaccoutumés de géométrie. »

    « Les géomètres qui ne sont que géomètres ont donc l’esprit droit, mais pourvu qu’on leur explique bien toutes choses par définitions et principes; autrement ils sont faux et insupportables.
    Et les fins qui ne sont que fins ne peuvent avoir la patience de descendre jusque dans les premiers principes des choses spéculatives et d’imagination, qu’ils n’ont jamais vues dans le monde, et tout à fait hors d’usage. »

    Le géomètre aveugle, avec son intelligence de l’escalier, court au hasard, parfois fort loin. Et le paralytique fin, avec son intelligence qui « sent » et « ressent », contemple le monde sans savoir comment progresser.

    Il est clair pour moi que PJ a, avec PSI, tenté de relier les deux formes d’intelligence identifiées par Pascal, mais que le fossé reste heureusement énorme. Pour moi en effet l’IA ne deviendra IN (N pour Naturel) que lorsqu’on sera capable de dialoguer avec la Nature. Vaste programme que PJ n’effleure pas dans PSI.

    Mais que Thom a fait plus qu’effleurer. Il a largement ébauché le programme de « créer une théorie de la signification dont la nature soit telle que l’acte même de connaître soit une conséquence de la théorie ».

    Pour moi Thom est de loin le plus géomètre parmi les fins et le plus fin parmi les géomètres. Il répète souvent: « Il faut être philosophe en science et scientifique en philosophie ».

    Conclusion

    Notre société globalisée est en crise. Comme cela a été à mon avis très bien vu par PJ cette crise est essentiellement écologique. Nous devons absolument réapprendre (comme les sociétés primitives décrites par Lévi-Bruhl) à dialoguer avec la nature; la survie de notre espèce en dépend. Pour l’instant c’est mal parti avec ces robots dont on nous rebat les oreilles: les robots actuels ne sont pas bien fins au sens pascalien. Ils deviendront intelligents quand nous aurons compris qui nous sommes; pari pascalien qui, selon moi, est très loin d’être gagné.

    Les « géomètres » de Pascal se sont appropriés une certaine forme de langage mathématique pour décrire ce qu’ils considèrent comme étant la réalité objective: c’est la fameuse coupure galiléenne. Thom propose la théorie des catastrophes pour la suturer…

      1. Thom: « La physique actuelle a sacrifié la stabilité structurelle à la calculabilité: je veux croire qu’elle n’aura pas à se repentir de ce choix ».

        Je pense que dans cette citation on peut remplacer « physique » par « robotique ». Je suis assez pessimiste puisque nos zélites n’ont pas dévié d’un pouce depuis la coupure galiléenne*. Je le suis encore plus quand je vois
        1. que PJ démissionne (cf. commentaire 14);
        2. que Thom est tourné en dérision sur ce blog.

        * suivant en cela Stephen Hawking qui ose écrire dans l’introduction de « Y a-t-il un grand architecte dans l’univers »:
        « Mais la philosophie est morte, faute d’avoir à suivre les développements de la science moderne, en particulier la physique. »

      2. @ PJ

        Ma position exposée ici est en frontale contradiction avec votre position exprimée maintes fois et réexprimée en commentaire 14. J’aurais préféré un débat. Vous avez une fois de plus choisi l’esquive; je respecte, c’est votre blog.

        Vous êtes d’accord avec les pages 121 à 123 de « Stabilité structurelle et morphogénèse  » (Benjamin ed.) parce que le concept de chréode inventé par Waddington et mathématiquement formulé par Thom est à la base de votre algorithme de « descente » de PSI. Dans le temps jadis vous citiez Thom et sur ce blog et en conférences à propos de la corrélation entre les « dieux(?), totems(?) » adorés par certaines sociétés primitives et les sept catastrophes élémentaires de Thom. Je ne vois qu’une seule raison à votre revirement et votre mutisme actuel à ce sujet: vous avez réalisé que les catastrophes élémentaires sont des « idées immuables » platoniciennes et, compte tenu de votre position anti-platonicienne résolument affichée, vous ne voulez plus en entendre parler, vous refoulez ces idées thomiennes qui vous dérangent dans votre inconscient.

        PS: Vous m’avez écrit en commentaire « ouvert » sur ce blog il y a environ un mois:
        « BasicRabbit, moi aussi je vais me conduire envers vous avec une très grande courtoisie : je suis prêt à vous offrir une page permanente sur mon blog pour que vous continuiez à nous dire tout le bien que vous pensez de la pensée de René Thom. »

        Je ne vois toujours rien venir.

      3. BasicRabbit, la différence entre nous, c’est que pour moi René Thom est un mathématicien dont les travaux m’ont toujours fort intéressé et inspiré, mais ce n’est pas un oracle dont la moindre des paroles doit être lue comme du marc de café.

        Vous savez, BasicRabbit, je suis un auteur : je m’apprête à publier mon 17ème livre, et ce que je crains surtout, c’est qu’il y ait un jour un BasicRabbit du futur pour dire :

        « Et souvenez-vous, en 2012 Jorion a dit : « À la réflexion, je prendrai plutôt un grand crème » ! »

      4. Misha Gromov réclame aussi une page appendice .

        Mais j’espère qu’il écrit mieux le français qu’il ne le parle .

      5. Je constate que vous esquivez une fois de plus.

        « BasicRabbit, la différence entre nous, c’est que pour moi René Thom est un mathématicien… »

        Vous refusez obstinément de voir en Thom le philosophe qu’il est.

        Pour ceux qui ne seraient pas au courant voici quelques échanges extraits du commentaire 4 du « Soliton… »:

        http://www.pauljorion.com/blog/2014/11/06/la-question-du-soliton-est-devenue-indecomposable/#comments

        PJ: Non, il n’y a pas de « René Thom de la théorie du chaos ». Il y en a un « de la théorie des catastrophes (élémentaires) » en topologie.

        BR: Il vaut mieux laisser s’exprimer Thom sur la façon dont il considère sa théorie:
        « Qu’est-ce que la théorie des catastrophes? C’est avant tout une méthode et un langage. Comme tout langage, la théorie des catastrophes sert à décrire la réalité. » (Le statut épistémologique de la théorie des catastrophes)

        PJ: Il vaut peut-être mieux NE PAS le laisser s’exprimer : « méthode et langage » est beaucoup trop vague, alors que dire que c’est une branche de la topologie est très précis.

        BR: « Il vaut peut-être mieux NE PAS le laisser s’exprimer »
        J’espère que vos doigts ont couru sur le clavier sous l’effet d’une pulsion inconsciente. Effet Libet?

        PJ: BasicRabbit vous êtes un troll au profil particulier : vous ne faites de mal à personne mais quel que soit le sujet abordé, vous poursuivez imperturbablement votre apologie de l’œuvre de René Thom…

        Voilà. PJ ne veut pas que la théorie des catastrophes puisse servir à décrire la réalité. Et il ne veut pas en discuter. Il enfouit tout ça bien profond dans son inconscient.

      6. Mais c’est vous même qui rappelez que j’ai souligné que les dieux du panthéon dahoméen renvoient aux 7 catastrophes élémentaires de Thom !

        Votre révérence à Thom n’est pas d’ordre scientifique mais mystique, c’est cela qui fait que nous ne serons jamais d’accord.

      7. « Mais c’est vous même qui rappelez que j’ai souligné que les dieux du panthéon dahoméen renvoient aux 7 catastrophes élémentaires de Thom ! »
        Merci pour la référence que je n’arrivais pas à retrouver.

        « Votre révérence à Thom n’est pas d’ordre scientifique mais mystique »
        Je ne compte pas là-dedans. Vous êtes face à Thom.

        La dernière des 7 catastrophes élémentaires de Thom est la catastrophe « ombilic parabolique » appelée aussi catastrophe champignon parce qu’on voit apparaître, issu de la théorie purement mathématique, un « phallus impudicus ». Pour Thom si les mâles ont un phallus c’est parce que c’est la forme structurellement stable la plus simple permettant d’assurer le transport des gamètes. Il explique par la même raison le fait que l’on fasse des rêves phalliques. Ces hypothèses peuvent sembler hardies mais je ne vois aucune mystique là-dedans.

        Pour ceux qui liraient ces lignes je signale que Thom a produit un grand nombre de modèles biologiques, certains très précis.

        Pourquoi les dahoméens ne seraient-ils pas dans le réel?

      8. @ juannessy

        « Misha Gromov réclame aussi une page appendice . »

        Gromov et Thom même combat! Gromov et Thom étaient voisins (car géomètres) à l’IHES.
        Ceci dit je n’ai pas été enthousiasmé par ce que Gromov dit dans son interview par Stéphane Paoli sur France Inter.

  19. C’est FOU de voir que même ici, beaucoup ne prennent pas au sérieux une chose que les 1% convoitent et développent pour expérimenter, se rassasier encore et nous mettre au pas.
    Et c’est un spécialiste de l’IA qui vous alerte, que faut-il de plus, voir son gosse passer tout son temps avec ‘Brian3000 le super robot éducateur’??
    Nan pour ça faut creuser encore.

    1. Nous sommes tous dépendants de nos outils, soit.
      Nos outils nous donnent une pleine grande maitrise sur les autres et notre environnement, soit.
      Nos outils progressent, soit.

      Les dominants développent, contrôlent et utilisent des outils pour dominer. Alors là, mega-scoop!! Non sans blague ? Pas possible !
      Ca aurait pas commencer il y a bien bien longtemps, avec une gros baton… Tiens, ça me rappelle une BD, ça.

      La question n’est pas l’outil, même si il est très perfectionné. La question c’est ce qu’on en fait.

    2. Mais je n’ai pas vu que les spécialistes de l’IA sont d’accord entre eux sur le péril !
      Et bien sûr ceux qui n’y croient pas consacrent peu de temps à le faire savoir.

      1. « je n’ai pas vu que les spécialistes de l’IA sont d’accord entre eux sur le péril ! »

        Bien entendu : il y en a qui trouvent que tout cela ne pose aucun problème. Il y avait des physiciens dans le projet Manhattan qui étaient également très contents de la manière dont avançaient les choses !

  20. Ce débat sur l’ IA semble cristalliser bien des peurs, bien des dénis, des incompréhensions

    S’il s’avérait que des systèmes artificiels puissent copier certaines des fonctions les plus nobles de notre cerveau (pas juste du calcul brut) alors on serait en face d’un n-ième décentrement après ceux de Copernic, Darwin, Freud ou l’homme (l’humain) se trouve de plus en plus marginalisé, excentré, obsoletisé.

    Réduit à un ensemble de molécules, de cellules, de neurones, certes agencées de manière très complexe (100 milliards de neurones, 10 millions de milliards de synapses), nous serions en compétition – ou en collaboration – avec d’autres systèmes, tout aussi complexe, dont la complexité nous échappe tout comme celle notre propre cerveau.

    Or un niveau de complexité supérieur engendre nécessairement de l’inédit, de l’imprévisible, des lois nouvelles émergent

    Là ou l’ordinateur programmé pour faire toujours la même chose fait toujours la même chose (ça rassure, sauf quand ça plante), nous aurions des systèmes conçus pour se reprogrammer eux-mêmes et dont les output nous échappent ou nous surprennent

    De toutes façons on ira voir de ce coté là jusqu’où on peut aller, et au train ou vont les choses ça peut aller vite

    Si les systèmes neuro-mimétiques se développent au point d’effectuer un part toujours plus grande du travail dit « intellectuel », il faudra y voir une chance si et seulement si la plus-value engendrée par ce travail est redistribuée à l’ensemble du corps social (Sismondi..) et ça, c’est pas gagné.

    1. « Là ou l’ordinateur programmé pour faire toujours la même chose fait toujours la même chose »

      Une bille partant plusieurs fois d’un même point avec, lors de son trajet, différents chemins à emprunter, sera imprévisible (enfin, son trajet) du simple fait de la gravité et d’infimes détails.

      Si j’ai bien compris, une situation analogue est tout à fait transposable à la machine. Il peut donc y avoir ce que l’on juge d’inédit même chez les robots.

      1. Parfaitement : effet du boulanger, la position du raisin de Corinthe devient imprévisible après quelques pliures de la pâte. Par ailleurs l’interaction entre plusieurs systèmes tenant compte de l’action des autres devient rapidement imprévisible.

      2. C’est généralement à cette faculté permise par les quatre forces connues , de faire des grumeaux dans la soupe , que l’on attribue la possibilité de la complexité à l’infini , dont la vie qui en est le résultat aléatoire et empirique .

        Si nous arrivons à faire mieux que nous avec les robots , dans la complexité , on aura fait plus fort que la nature dans sa course à la complexité .

      3. Quand j’essaie d’imaginer les nombreux évènements ‘retentissants’ dans l’univers et les mécanismes en jeu, je doute.
        Ou voulez-vous dire, on a fait mieux avec les robots que la nature avec nous ?
        L’espèce humaine aura alors été une ‘passerelle’.

      4. Non ,pas une « passerelle » ( idée anthropomorphique), juste un rameau possible de la complexité ,dans une infinité de possibilités en compétition de par les lois de la physique .
        On notera cependant qu’il semble acquis que toute complexité accrue consomme de plus en plus d’énergie , et tue de plus en plus d’espèces si elle n’a pas besoin de leur coopération .

        Les seules espèces qui peuvent prospérer sans trop d’énergies sont les algues et lichens .

      5. Je ne conçois pas que la vie et sa diversité s’arrête à notre planète. De plus, imaginant la quantité d’énergie présente…

      6. Mais je n’ai pas écrit que la vie était réservée à la terre ….

        Pour l’énergie , pourquoi pas , mais faut aller la chercher . Ce qui a l’air de coincer pour le moment , c’est que nous dépensons plus d’énergie que nous sommes capables d’en capter , et que nous en dépensons d’autant plus que nous cherchons de nouvelles sources , au prix de dangers de mort accrus .

        Et que notre désir de complexité accrue se heurte à l’accélération de notre mise en danger .

  21. A ce cher Robot, je demanderai, face à un bois d’épicéa en montagne, si c’est le moment d’abattre certains d’entre eux (mûrs). Ce savoir faire, je le pressends, mais je ne peux que difficilement le partager, sentir la marée en montagne ferait doucement rigoler……surtout la sentir sans en avoir connaissance!
    Un épicéa mal abattu continueras à se débattre (longtemps après). De plus il sera extrêmement sensible aux insectes xylophages. Le Robot intelligent n’en a cure, puisqu’il a été construit par ceux qui n’ont pas compris eux-même.
    BasicRabbit parle d’IN, ou comment voir la réalité depuis le terrier du lapin…..
    on est en train de s’atrophier convenablement.
    Ne comprenant rien à l’anglais, je n’ai rien compris de la vidéo !

    1. J’ai oublié de préciser que l’IA a déjà contaminé beaucoup, peut-être qu’ il y aura un dernier sursault ?

    2. « Ne comprenant rien à l’anglais je n’ai rien compris à la vidéo écrit Didier ». Voilà une remarque qui tape dans le mille ! Ce que permettent les technologies de pointe informatisées c’est de nous doter de moyens de percevoir, de comprendre et d’agir qui transcendent de façon spectaculaire l’entendement, la pensée, l’intelligence naturelle humaine. Tantôt c’est catastrophique comme lorsque des algorithmes détruisent le jeu du pari sur les prix. Mais parier là- dessus est-il un jeu permis ? Ou bien il s’agit de créer un nouveau sujet animal, voire un troupeau de machines, artificiel,. Qui n’est donc pas dans la nature et qui ne soit ni plus ni moins dans l’absolu intelligent qu’un autre animal ou un humain existant dans la nature. Pourvu qu’il soit par hypothèse capable d’un comportement subjectif domestiqué : Il comprend le langage des chauve-souris, « il voit notre réalité depuis le terrier du lapin », etc, que sais-je… il évolue dans une Umwelt ( monde spécifique, où il n’est pas une machine mais notre machiniste). Son monde n’est pas la nôtre, grâce auquel nous pensons mieux pouvoir adapter notre monde humain, par une connaissance multipliée de l’Environnement « global », comme on dit qu’il nous est donné ou reçu. Bien sûr on peut créer des robots aussi au service de la connerie, ou de la guerre, aussi

    1. C’est implicitement ce que je redemandais aussi en écrivant : « Un monde de robots n’existe pas si je ne suis pas là pour l’observer » .

  22. Si je comprends bien l’inquiétude fasse au progrès des machines dans leur capacité à remplacer efficacement l’homme dans de plus en plus de ses taches, je ne comprends pas trop l’inquiétude fasse aux senarii du type « terminator » ou « matrix ».
    Pour l’instant toutes les succès d’algorithmes très performants sont impressionnants, mais ils sont sans volonté propre. Il y a toujours à un moment un programmeur qui donne sa « motivation » à l’algorithme: par exemple « il faut gagner le jeux ».
    Il n’y a aucune indication qu’il soit possible de donner à un algorithme une volonté propre, sans parler de conscience (même par accident ou réaction en chaîne incontrôlée). Si cela arrivait, cela serait du même niveau que découvrir une intelligence extraterrestre. Sans doute passionnant, inquiétant et révolutionnaire, mais que ce soit pour l’intelligence extraterrestre ou l’IA, il n’y a pour l’instant pas d’indication qu’elles soient sur le point d’être rencontrées.
    Pour l’instant (et sans doute pour longtemps), il me semble que le principal danger est encore et toujours l’homme et sa bêtise sans limite (derrière le fusil, les dollars ou l’algorithme).

    1. « Il n’y a aucune indication qu’il soit possible de donner à un algorithme une volonté propre »

      Quelle importance puisque les travaux de Libet et successeurs ont montré que l’homme est lui aussi … « sans volonté propre » ?

      Le fait est que ce n’est pas avec de l’ « intention » ou de la « volonté » ou autres illusions du même acabit que nous fonctionnons, cf. Le secret de la chambre chinoise (1999), alors, que les robots en aient ou non, qu’est-ce que ça peut ficher ?

      1. C’est vrai , mais je rigole d’avance quand ,dans un monde sans humains , les robots vont se découvrir mortels et sans Olivier 69 pour leur dire bonjour et cordialement !

      2. J’essaie avec un autre vocabulaire
        Et bien, je veux dire qu’une machine n’ayant aucune « envie » (ou objectif) autre que celle que l’homme lui inculque,
        une machine ne fait rien par elle même même si elle en serait capable. L’algorithme qui gagne les jeux ne jouera pas si on ne lui dit pas de gagner, même si il en est capable.
        Donc « ça fiche » que pour l’instant, les algorithmes sont comme les autres outils: dangereux si utilisés par l’homme pour nuire. Dans tous les exemples montrés ici, il n’y a rien qui indique qu’une machine puisse avoir des désirs (ou objectifs) différents que ceux programmés. Cela peut etre dangereux, mais pas plus que n’importe quelle arme par exemple.
        Les machines sont un peu comme certaines personnes opérées du lob frontal: elles ont les mêmes capacités qu’avant mais sans désir, elle sont incapables de prendre des décisions (ni bonne ni mauvaise), sauf si on leur dit quel est leur intérêt (dans un jeux de carte par exemple).

      3. Je ne suis pas d’accord avec vous… Je crois plutôt que les choses que nous « voulons » n’apparaissent pas clairement à notre conscience. En revanche, il me semble que si on sait l’écouter, la petite voix intérieure, elle, sait ce que nous voulons…

      4. @Yann

        Vous vous trompez, différents systèmes (algorithmes?) s’entrecoupent, une imitation de notre dynamique d’affects est implantée, et en fonction de ses capacité, il agit. Ces actions ayants sans doute pour moteur un but logique faisant la synthèse de la somme des connaissances du robot…

      5. @ lucas
        (Je ne suis pas sur de bien vous comprendre). Sauf que pour l’instant, quelque soit la complexité des systèmes et algorithme, on n’observe pas le début de l’ambrions d’un comportement ressemblant a des décisions prises sous l’emprise de ce qui ressemblerait à un sentiment.
        Une prise de contrôle de notre monde par des machines est pour l’instant un fantasme, aucune donnée ne va dans ce sens.

      6. « L’idée selon laquelle la conscience est en retard, relativement à l’entité qui est à l’origine du processus de conscience , se voit renforcée par les expériences pionnières menées par Benjamin Libet sur le temps que met un stimulus à être rendu conscient…. »

        Damazio Le sentiment même de soi

        Damazio note et confirme le décalage dans le temps entre prise de décision et sa « livraison » dans la conscience. Il n’en déduit pas pour autant que nous sommes sans volonté. Ce sont des mécanismes séparés – mais non indépendants – qui visent à optimiser notre comportement face à des situations plus ou moins routinières.

        Cela demanderait un autre débat

      7. « Il n’en déduit pas pour autant que nous sommes sans volonté. »

        Vous avez une idée pourquoi ? Tout simplement selon moi parce que ces gars là n’ont pas la moindre idée comment ils rebâtiraient une psychologie sans « la volonté », sans « l’intention ».

      8. @Yann

        « Une prise de contrôle de notre monde » dit comme ça c’est sûr… et pourtant.
        Une perte de contrôle de l’homme non, même pas ?
        Voyez pas que vos besoins, connaissances et envies dépendent en grande partie du travail des machines??

        « aucune donnée ne va dans ce sens. »
        Vous avez vos œillères en mains.

      9. @Lucas
        « Vous avez vos œillères en mains. »
        Allons, allons, vous pouvez faire mieux que ça, alors qu’une petite référence scientifique suffirait à me convaincre. Vous devez bien avoir ca sous le bras vous qui n’avez pas d’oeuillère. Un résultat aussi fort doit au moins faire un Nature ou un Science.

      10. Parcourez le monde ou ce blog et repérez l’omniprésence des robots, je sais pas moi…
        Il faut savoir se débrouiller un peu. 😉

      11. Non c’est tout simplement parce que c’est impossible. Chassez la volonté par la porte elle revient par la fenêtre.
        On peut en simuler une. Mais ce n’est pas parce que ca ressemble à une psychologie, que ca a l’odeur d’une psychologie et que ca a le gout d’une psychologie, que c’est une psychologie.

        J attends de voir ce que ca peut donner également (meme si ce n’est pas un argument).
        En fait si: je sais. Le premier a avoir franchement ouvert la voie à ce genre de truc, c’est Sade. Le résultat on le connait. Sur le plan moral la justification et même l’apologie du crime sexuel, du meurtre (y a pas de second degré chez lui). Sur le plan politique, la justification pleine et entière du totalitarisme (ben oui: la liberté politique n’a plus aucune valeur: si les personnes n’ont aucune volonté propre mais seulement des dispositions et un caractère, le corps politique est de jure reductible à des « populations de comportements » que l’Etat a toute licence d’orienter dans la direction qui lui semble la meilleure, de la manière qu’il souhaite la plus appropriée: stimulus/réponse).

        Si certains ne savent pas comment faire une psychologie sans intention et sans volonté, d’autres ne savent pas comment faire un monde habitable sans volonté et sans intention.
        Heureusement, les 2 sont impossibles sans tricher à un moment ou à un autre.

      12. @ PJ

        « ce n’est pas avec de l’ « intention » (…) que nous fonctionnons »

        Je pense que vous voulez dire « intention consciente ». Car il me semble clair (et difficilement réfutable) que l’intention est intimement liée à une dynamique de gradient à attracteur ponctuel (la non intention étant liée à une dynamique ergodique « du matelot ivre »). Cela pose le problème de savoir d’où vient cette intention pour vous inconsciente. Je crois comprendre qu’elle ne tient pour vous qu’au seul effet de mémoire (épigénétique). Je pense pour ma part qu’il y en outre une composante génétique (d’autant plus prononcée que les grandes régulations biologiques (faim -proies-, peur -prédateurs-, partenaires sexuels) sont en jeu).

      13. Quand on dit « intention », on veut dire « intention consciente », ce n’est pas une proposition que je fais à titre personnel, c’est comme ça que fonctionne la langue.

    2. @AntoineY

      Je vous cite « On sait pas faire sans, donc on fait comme si ça existait… »

      C’est intéressant comme argument, ça, …

      Donc par exemple, « y’a plus rien à manger, mais on imagine qu’on mange », ça marche aussi ? Cool ! mais il faudrait vite le diffuser, parce y’a des gens qui en auraient un peu besoin.

      Autre réflexion:
      Utiliser les avancées de la neurophycho pour par exemple produire des IA, c’est bien, c’est le progrès, mais utiliser ces avancées pour réfléchir un au vivre ensemble, ça on sait pas faire …?

      1. Poser la question est y répondre, cependant, la monoculture (et le mono élevage) étant de toute façon condamnée, l’agriculture devra s’adapter aux circuits courts.
        Je pense que les robots auront leur rôle en cette matière, de toute manière il y a des tâches que la machine sait mieux faire de l’être humain.

  23. C’est extcrèmement viral cette IA.
    Pour parler concrètement,
    Sans concrétion, l’écrit est d’abord le doute, les cris c’est la fixation des prix à payer et de la suite qui s’en suit.
    Calculi et tutti quanti.
    Grace à notre culturisme, vas y Nabilla, explique leurre que tout corps ingurgité ressort et que cela s’appelle digestion ou gestation, c’est pareille aux même, I Han

      1. …Toute dévolue aux méandres/ De mes caprices irisés,/ où suis-je au fond de ces baisers/ d’aurore et de salamandre ?…
        Mais moi, vapeur, forme de neige/ souffle de moi-même excédé/ vais-je rompre le sortilège/ de ma veine mobilité…
        Je sais un ciel qui se désiste/ de ses azurs et de ses ors/ afin qu’un merveilleux retors/ les change en une nuit de schiste/ où tout s’inscrit, glisse, ricoche/ pour atteindre au son le plus pur…
        Quelle I.A. sera jamais à même de produire l’équivalent sémantique de ces trois poèmes d’où j’ai extrait ici seulement trois fragments des six pages. Et où Robert Ganzo parle tour à tour pour la méduse, la danseuse, et le poète, trois modes d’être du vivant ?Les poèmes se suivent sans aucune indication titrée.
        Qui ici se risque à écrire quatre vers évoquant le cyborg ?

      2. @arciatus :

        mais le cyborg est sans doute déjà en état d’écrire quatre vers sur Robert Ganzo .

        Peut être , même , trouverait on des humains pour trouver ça poétique , et réclamer le génial auteur .

      3. Pire, il aurait sorti 500 vers par seconde dans le style de n’importe quel poète, et il y aurait un mode ‘improvisation, peut être un peu plus lent mais capable d’exercices techniques prodigieux…
        Les humains en seraient tout émoustillés !

        Quelques vers en prose…

        Des jeux de lois, des jeux des mots, des jeux de mains,
        Ils ont cru, et encore, croient s’y fier
        mais comme le monde
        l’homme est absurdement crucifié.

        Etant môme l’écran était notre fierté
        mais aujourd’hui, c’est tout un corps qui prend comme vie.

        solides, l’air ne sentons pas, ni le mal
        notre divine énergie est infinie
        tout est bon, sécurité optimale,
        la carte en mère est maintenant
        en totale abstraction.

  24. Certains d’entre vous (Lucas ?) sont effrayés par les idées de « perte de contrôle de l’homme », « prise de contrôle de notre monde par la machine »…

    Vous rendez vous compte que nous n’avons jamais eu aucun contrôle sur nos décisions, que la volonté est une illusion, que toutes les aventures ont été et seront tentées ?

    Mais qu’il est toujours possible de revenir en arrière, et que évidemment cela à un prix.

    Et donc, que la seule et intéressante question, c’est qui est prêt à payer quel prix en terme de « besoins, connaissances et envies » ?

    Qui parmi nous est prêt à payer le prix de la « pause » salutaire et indispensable, du soit-disant progrès ?

    Qui souhaite réellement discuter des limites ?

    Je vous rassure, plein de peuples des pays du sud, bien plus sages que nous, ont déjà pris leur décision, et se battent tous les jours pour la faire respecter.

    Dans ce monde qui change très vite, je ne parie pas un kopeck sur nos chances, à nous autres soit-disant « pays avancés », …

    Les belles histoires d’espèces flamboyantes, hyper spécialisées, hyper adaptées à leur milieu, hyper efficaces dans la consommation des ressources disponibles, finissent toujours mal …
    Ouvrez le moindre bouquin de microbiologie, si vous ne me croyez pas.

    1. Disons que l’homme qui délègue (donc sans le vouloir) son travail et une multitude de tâches à la machine perd de sa consistance.
      Nos habitudes ont changé à une allure telle qu’on ne se rend pas compte, et si vous voulez j’en rajoute, mais c’est uniquement pour que ce phénomène soit pris au sérieux.
      Après, choisir son camp, sachant que tout n’est pas binaire… Si ?

      1. Tout à fait d’accord avec l’accélération en cours, de là à dire qu’on ne s’en rend pas compte… Pourquoi alors certains, une minorité certe, luttent et meurent ?

        Bien sûr, rien n’est binaire, mais complexe, changeant, dynamique, mouvant, fuyant, … moi j’aime bien « continu », par exemple, et puis, ça fait plaisir à notre lapin de base.

        Mais le continu n’empêche évidemment pas de se situer, chaque jour qui passe.

        Comme toujours et depuis la nuit des temps, il faut choisir son camp.

      2. « Pourquoi alors certains, une minorité certe, luttent et meurent ? »

        Peut être que c’est justement parce que la majorité ‘ne se rend pas compte’ et a une forte tendance (donc sans le vouloir) à étouffer les minorités dérangeantes, par le biais d’un domaine devenu ce à quoi il n’aspire pas (à savoir la politique, et je suis français).

  25. Depuis longtemps maintenant, le samedi sur jeuxvideo.com (sur le nesblog pour les réfractaires à la publicité invasive) on peut profiter d’une chronique étonnante intitulée speed games.

    La plupart du temps il s’agit de faire jouer quelqu’un très vite et de se dire que si le jeu avait été conçut pour ça il aurait eu du mal à trouver son public (cible en markéteu).

    Mais parfois ils commentent un TAS (ToolAssistedSpeedrun), c’est à dire que le quelqu’un à cette fois programmé un robot pour « jouer » à sa place. On assiste alors à des grands moment, comme quand le personnage s’envole parce qu’il reçoit au même moment les commandes « sauter » et « s’accroupir ».

    Et c’est l’occasion de se rendre compte qu’il y a des robots à qui l’on raconte n’importe quoi.

    Et c’est tant mieux.

    1. Je voulais dans mes commentaires précédents dire que si c’est positif, je ressens un gouffre entre les capacités du monde vivant dans son infinie diversité (de la frustre méduse – infiniment disponible aux qualités de son milieu- aux pulsations construites de la danse, de la musique, du geste graphique, vers l’écriture du poète à l’écoute des signes), et d’autre part la difficulté de construire des outils complémentaires,utiles et non pas nuisibles à partir des sciences de l’information. Prolongation extraordinaire des outils dont nous disposons, pour mieux connaître, comme disait Mallarmé notre «séjour terrestre ». Je trouve la recherche dans ces technologies désirables , avec beaucoup de craintes.
      Crainte que des codes existant chez l’homme soient considérés comme des handicapes à un projet. Un certain eugénisme? Que l’on néglige les sensations subjectives en les jugeant incommunicables, alors que des chercheurs comme Uexküll ont décrit , en tant que véritablement des sujets, des formes de vie jugées auparavant comme primitives, viles. Enfin il y a la difficulté, si la motivation du chercheur est en priorité commerciale, de poser a priori comme première dans la succession des phénotypes l’aptitude à reconnaître les formes sur le modèle le plus familier : le perception humaine fondée sur des images. Ce qui conduirait à supposer, pour un animal domestique n’existant pas dans la nature un corps physique qui soit ressemblant au formes familières. Donc figuratives par anthropocentrisme? Et partant de cette limitation mercantile ne pas expérimenter le modèle d’animaux existants pour qui la seule perception « visuelle » motivante c’est le mouvement. Comme le choucas aveugle à toute sauterelle immobile.Et ainsi négliger des possibilités? Enfin, si la motivation c’est la création de stratégies de jeu ( c’est le plus immédiatement rentable pour occuper la jeunesse au chômage!) on pourrait chercher à quitter le principe de motivation par la récompense ou par la sanction ( modèle du jeu d’arcade et stratégie de compétition)…

  26. J’ai essayé de m’imaginer la disparition des humains sur notre planète qui ne laisserait sur place que des robots…qui ne mangent pas, ne boivent pas, n’ont aucune activité sexuelle, pas de femmes ni d’enfants, pas de vêtements, aucune maladie si ce n’est l’usure – mais comme ils se réparent eux-mêmes, pas de problèmes – pas de congés, ni sommeil,et, j’ai tenté de répertorier tout ce qui disparaîtrait ( usines, administration, argent, bourse, Etat, bâtiments publics, lieux de villégiature, religions) ou serait voué à l’abandon (sports, jeux, écologie…). On peut se demander ce que seraient les activités de ces robots. Même si on laisse quelques humains pour profiter de tout ça ils finiraient par disparaître; et comme les robots de donnent pas naissance à des humains, on se retrouve dans la situation précédente.
    En fait, le seul vrai problème que pose la robotisation, c’est celui de la survie de l’espèce qui, pour l’instant, n’a montré qu’une grande propension à l’auto – destruction.
    « Combien durera ce manque de l’homme mourant au centre de la création parce que la création l’a congédié. » René Char
    « Les doctrines qui m’expliquent tout m’affaiblissent en même temps. Elles me déchargent du poids de ma propre vie et il faut bien pourtant que je le porte seul. »
    A.Camus (le mythe de sisyphe)

  27. @ Paul Jorion

    Vous avez une idée pourquoi ? Tout simplement selon moi parce que ces gars là n’ont pas la moindre idée comment ils rebâtiraient une psychologie sans « la volonté », sans « l’intention ».

    1. Ce n’est pas parce que l’on ne comprend pas une chose (la conscience, l’intention..) que cette chose n’existe pas
    2. Ce que j’ai compris moi c’est que la conscience, l’intention sont des processus, plus ou moins synchrones, mobilisant simultanément différentes cartes mentales
    3. Certains organismes mono-cellulaires (spermatozoïdes, bactéries) possèdent des propriétés chimiotaxiques (se déplacent dans un gradient). On n’en déduit pas qu’ils ont une volonté.
    4. Chez l’animal, l’intention semble avoir émergée sous pression de sélection pour donner un avantage compétitif aux espèces capables de focaliser leur attention les actions les plus utiles à leur survie (Edelman)
    5. Dans le cerveau humain un seuil supplémentaire de complexité semble avoir été franchi (avec la conscience) qui n’est plus assimilable à des simples boucles action/réaction
    6. Il est possible que le substrat organique de l’information (le cerveau) soit substituable par un autre substrat (transistors, silicium..) et une autre architecture pour autant qu’un certain degré de complexité soit disponible. L’avenir le dire

    Mais cela ne met pas hors jeu le phénomène de l’intention et de la conscience – à mon avis.
    A suivre

    1. Vous n’avez pas compris…mais encore un tout petit effort, vous n’êtes vraiment pas loin.

      Je vous met sur un piste : il faut que vous creusiez le « plus ou moins synchrones »…

      1. Hé bien justement, voici la piste.
        Le fait que l’action précède la représentation dans la conscience n’est peut-être qu’un mécanisme visant à plus d’efficacité en court-circuitant des cartes neuronales qui vont prendre plus de temps et d’énergie pour aboutir par rétro-action à d’autres actions qui à leur tour vont déclencher d’autres prises de décision….
        Le modèle de base étant le réflexe qui court-cuite toute réflexion pour donner la priorité absolue à l’action (bien utile quand on pose la main sur un poêle brûlant)
        Ce modèle ayant évolué, on peut appeler intention/conscience le processus global de prise de décision avec cet aspect paradoxal de non-synchronicité.
        Disons que le cerveau doit prendre une décision. Il la prend, et immédiatement APRES, il informe la conscience qu’une décision a été prise, que des moto-neurones ont été activés (parfois à tord: Oups, j’ai appuyé sur le mauvais bouton)
        Mais au final, il faut bien qu’une décision soit prise, et ce peut pas être « quelqu’un » d’autre que le sujet.
        Pas de sujet, pas de décision, pas d’action, sauf à supposer que nous sommes tous des automates et alors je me demande soudain pourquoi je vous réponds

      2. « me demande soudain pourquoi je vous réponds »

        Si vraiment vous voulez tout savoir, ça risque de prendre très longtemps, sûrement le temps de se remémorer l’ensemble des actions(et pensées qui en découlent..) qui vous ont amené à écrire cela depuis votre naissance (et bien avant…), en votre lieu, à ce moment etc…(même si avec le réseau, ces deux choses en prennent un petit coup). Et aussi ce qui se passait autour pendant qu’on y est…
        Et leur donner un sens.

    2. @MerlinII

      « aspect paradoxal de non-synchronicité » ?

      Oui, une décision est prise par le sujet, évidemment.
      La question n’est pas qui, mais ce « qui » est-il conscient de la décision prise ?

      « Pas de sujet, pas de décision, pas d’action »
      Ben justement si, mais dans cette ordre « sujet, action puis décision ».

      Le point le plus important, c’est le suivant:

      Avouez que ça vous fiche une trouille bleue de « n’être qu’un automate » , hein ….?

      Il faut que vous surmontiez cette peur, qui vous empêche de réfléchir, et ensuite on pourra repartir…

      A chaque fois qu’on avance vraiment dans la connaissance, ça fout la trouille, c’est comme ça. Puis on s’habitue, et on en recommence à penser et à avancer.

      1. Avouez que ça vous fiche une trouille bleue de « n’être qu’un automate » , hein ….?

        Évidemment. Pas vous ?
        Si nous sommes tous des automates, qu’est-ce qu’on fout ici ?

        Je veux bien admettre tous les décentrements déjà observés, mais si JE n’existe pas, si ON pense à ma place, on tourne en rond. Qui est ce ON

        Je préfère attendre encore quelques progrès dans les explications de la conscience et suspendre encore mon jugement. Laissez moi encore l’illusion de croire que j’existe. Please.

  28. Si je vous suis correctement, votre proposition est argumentée comme suit :
    L’action chez l’homme précède la conscience de l’acte (preuve avec le secret de la chambre chinoise). Cette conscience agit comme rationalisation i.e. explication a posteriori de l’acte.
    L’ordre qui a mené à l’acte est inscrit par une conscience (la nôtre ou une autre, celle d’un autre être humain par exemple) dans notre cerveau. Ce cerveau héberge tous les ordres qui y tournent « en boucle » jusqu’à leur exécution (et même parfois après générant des perturbations psychiques).
    Ces ordres peuvent aussi consister en un besoin par exemple en une minimisation de contrainte, primaire (faim, froid, émotions).
    Nous sommes aujourd’hui face à une IA qui fonctionne presque de la même façon : on lui donne un ordre ou un gradient de contrainte et elle l’exécute.
    Je dis presque car il semble (et détrompez-moi si nécessaire) qu’il manque sa capacité de conscience à générer des ordres pour elle-même ou pour d’autre. Cette « feature » additionnelle est probablement conditionnée par une capacité de conscience à rationaliser son action après exécution. A quel point en sont-ils poche ?
    Après examen de votre proposition, j’ai l’impression que l’heure est en effet grave, les autos ont remplacées les chevaux il y a un siècle à peine. Serions-nous les canassons de notre époque et de sa modernité?

    1. Je suis d’accord là-dessus.
      Et si la conscience est bien un processus supplémentaire produit par l’évolution pour optimiser et développer les capacités d’adaptation et d’interaction d’un individu (d’une espèce) avec son environnement, et si un substrat non organique peut faire le même travail, alors il ne manque aux systèmes neuro-mimétiques que la conscience comme il ne manque aux chiens que la parole.

      D’où votre question ; serons-nous les canassons …
      …ou les machines seront-elles des puces savantes ?

      1. Ma thèse, je l’ai déjà expliqué dans Le secret de la chambre chinoise (1999), c’est que la conscience, c’est un dispositif qui permet la synchronisation des imputs venant des différents sens, avant inscription dans la mémoire. Que ça nous donne l’impression que nous avons une « volonté » qui a des « intentions », blablabala, ça c’est un artefact.

        Mais il faut reconstruire toute une psychologie à partir de ça : d’une conscience qui n’est absolument pas aux manettes. C’est au programme : à partir du 7 février ! (je dépose le manuscrit du bouquin sur Keynes le 6 😉 ).

      2. Dans quel but ? La survie : la meilleure adaptation à la répétition de la situation.

        Je touche un serpent. Il se dresse vers moi, ouvre la bouche et siffle.

        Ces informations parviennent à mon cerveau, le long de mon bras (c’est long), par le nerf optique (c’est court), par le nerf auditif (court mais pas aussi court). Il faut un dispositif qui ignore les contraintes de temps du nerf de mon bras; de mon nerf auditif et nerf optique et fasse apparaître comme simultanées ces différentes perceptions qui correspondent à un seul événement dans le Réel, et aille inscrire la configuration globale comme dangereuse dans ma mémoire.

        Si je n’ai pas un dispositif de ce type, le coup suivant je suis mort.

        C’est pour ça que je suis convaincu que la « conscience » n’est pas propre à l’homme, ni même aux animaux « supérieurs ». L’homme est uniquement la seule créature qui écrit des bouquins au sujet de sa conscience 🙂

      3. C’est pour ça que je suis convaincu que la « conscience » n’est pas propre à l’homme, ni même aux animaux « supérieurs »

        Oui ! Tout être humain qui arrive à se « détendre » par rapport à toutes ses « pensées », tous ses « savoirs » imposés par de longs apprentissages, qui arrive à approcher des animaux, à vivre avec eux — domestiqués ou non — devrait comprendre et surtout accepter cette conclusion.
        Celle que tous nos prédécesseurs avant la révolution néolithique connaissaient, celle que de petits peuples en voie d’extermination connaissent encore et celle que nous sommes forcés d’oublier car nous sommes en train de procéder à une extermination massive des animaux et leurs survivants enfermés (ceux dont nous consommons les produits) sont réduits à l’état de marchandises.
        En réalité nier qu’une IA est impossible est tout à fait cohérent avec le fait de nier la « conscience » aux animaux.

      4. @ PJ

        Ce qui nous sépare tient dans mon  » Pour moi en effet l’IA ne deviendra IN (N pour Naturelle) que lorsqu’on sera capable de dialoguer avec la Nature. Vaste programme que PJ n’effleure pas dans PSI. » de mon commentaire 22.

        Pour moi le coeur de PSI est déjà contenu dans le comportement de Jean Pouillon lorsqu’il rédige les comptes-rendus de je ne sais quel conseil d’administration. Pouillon fait là, à mon avis, typiquement un travail qui pourrait être fait par un robot suffisamment « formé » par un logiciel de type ANELLA (j’espère que Pouillon, lorsqu’il rédige, est animé par une dynamique de pertinence et qu’il garde sa dynamique d’affect pour d’autres occasions).

        En 199? vous écriviez dans PSI (chap. 12) que « Ce qui est visé avec la notion de système intelligent, c’est, rappelons-le, une simulation ».
        Du fait de votre commentaire 36 « on est très près d’avoir des robots qui marchent de la manière dont nous fonctionnons » j’infère que « faire semblant d’être intelligent » est pour vous très près « d’être intelligent ».

        Je pense que deux robots, initialement « formés » chacun par un humain intelligent jusqu’à ce qu’ils paraissent intelligents aux yeux de leur formateur, vont rapidement affadir leur intelligence lorsqu’ils dialogueront entre eux, la raison étant que la structure qui sous-tend cette intelligence n’est pas contenue dans le programme ANELLA.

        Nous sommes tous les deux, je crois, convaincus que le langage, ce dépositaire du savoir ancestral de notre espèce, contient dans sa structure les clés de l’universelle structure de l’être.

        Votre position vous conduit à postuler que le langage est parti de rien, est exclusivement de l’ordre de la cause efficiente, de l’épigénétique. Le langage, tel que je crois que vous le concevez, permet aux individus qui l’utilisent de communiquer seulement intersubjectivement c’est à dire artificiellement, « hors sol ».

        Ma position est qu’il y a au départ un noyau dur, de l’ordre de la cause matérielle, de la génétique. Le langage tel que je le conçois doit permettre une communication objective, ancrée dans le « réel », c’est à dire une communication intersubjective dans laquelle la Nature est partie prenante. Dans ces conditions et seulement dans ces conditions, « être intelligent » se confond avec « faire semblant d’être intelligent ».

        Le fossé qui nous sépare est immense. Pour moi nous sommes très loin d’être capables de créer des robots qui nous ressemblent.

      5. Je pense plutôt que c’est le langage , dont le « nôtre » , qui est structuré comme ( et par ) l’univers , et pas l’inverse .

      6. @ juannessy

        « Je pense plutôt que c’est le langage , dont le « nôtre » , qui est structuré comme (et par) l’univers , et pas l’inverse . »

        L’hypothèse universaliste de Thom (rejetée par les linguistes « classiques » -dont PJ?-) consiste à affirmer que les grandes structures syntaxiques sont issues de la structure formelle des grandes interactions de la régulation biologique. Pour lui la prédation biologique qu’il associe à la catastrophe « fronce » est prototypique de l’action transitive SVO (Sujet Verbe Objet). Pour lui, parce que notre espace-temps est de dimension 4, il y a une borne supérieure à la complexité des processus que l’on peut décrire avec une phrase atomique.

      7. Je voudrais tenter (ne serait-ce que pour essayer de me clarifier les idées) de préciser ce qui sépare l’IA telle que la conçoit PJ et l’IN telle que je la conçois.

        L’idée de base est que la matière s’organise (aspire à la forme pour reprendre le schéma hylémorphique aristotélicien) selon les dynamiques les plus simples possibles. C’est une position finaliste. Mais, en mécanique newtonienne, le principe de moindre action de Maupertuis est de ce type et est accepté puisque prouvé équivalent au principe efficient de Newton. Ce n’est pas PJ qui me contredira lorsque je dis que les dynamiques les plus simples possibles sont les dynamiques de gradient à attracteur ponctuel (le fond de la cuvette).

        Je n’ai qu’une vague idée du programme ANELLA mais ce qui me semble important ce n’est pas la descente selon la plus grande pente indiquée par le gradient de potentiel jusqu’au fond d’un puits de potentiel, mais ce sont les modifications du paysage épigénétique de l’interlocuteur que cette descente entraîne, modifications qui « excitent » ce dernier et le conduisent à continuer la conversation (selon le même principe).

        Un problème fondamental est celui de la stabilité structurelle des processus d’apparition, de disparition, de fusion ou de scission des cuvettes de potentiel. Pour moi, faute de cette stabilité structurelle, le dialogue ne pourra être qu’inintelligible. Aussi il me semble que ANELLA ne peut fonctionner correctement que si l’un des deux interlocuteurs est un humain car la stabilité structurelle de ces processus est implicitement inscrite dans notre langage naturel; autrement dit je pense qu’ANELLA ne peut fonctionner lorsque ce sont deux robots « ANELLA » qui dialoguent.

        Thom a fait la liste des sept dynamiques de gradient structurellement stables les plus simples que l’on rencontre dans notre espace-temps (de codimension au plus 4), dynamiques sur lesquelles on voit, pour les plus simples, comment se modifient les cuvettes de potentiel. J’espère ne pas déformer la pensée thomienne en disant que pour lui l’embryologie animale est dirigée par une dynamique de gradient structurellement stable de grande codimension (8?), un « centre organisateur* », qui assure l’homéostasie de l’animal. Pour lui cette organisation se reflète dans le langage naturel (cf. le commentaire ci-dessus à juannessy), et pour moi cette organisation doit transparaître dans l’IN.

        * je ne sais pas si ce centre organisateur est auto-organisateur (en un sens à préciser…).

    2. Bien vu ! On n’est pas proche de créer des robots qui ressemblent à l’image grandiose que nous nous sommes faits de nous-mêmes mais on est très près d’avoir des robots qui marchent de la manière dont nous fonctionnons vraiment.

      1. Si notre volonté, nos intentions (et j’imagine nos sentiments ainsi que notre bonheur ou malheur) ne sont que des artefacts, il n’y a pas à s’inquiéter de se qui peut nous arriver, non? Que de robots prennent le dessus ou non, notre volonté de nous en sortir n’étant qu’un artefact, quelle importance?
        Je fais juste un peut de provocation pour insister sur le fait que les robots que nous avons ne montrent pas de signe d’artefact d’intentions. Le jour des machines donnerons de signes d’artefacts de volonté, il faudra surveiller ça de près, mais ce n’est pas sur que ça arrive. L’exemple de la vidéo est proche des réseaux de neurones que je manie parfois dans mon travail: des algorithmes d’optimisations performants, mais sans aucun artefact d’intention ou volonté. Ça viendra peut être, il n’y a aucun exemple troublant à ce jour.

      2. @PJ
        Pas mal le coup du serpent sauf que certains sujets qui ont vu ces séquences au ciné, à la télé où in live auront la sagesse de ne pas se mettre en danger et sans que leur bras ait « vécu » cette expérience .
        @Juannessy
        Merci d’avoir signalé l’article de It-Expertise dont j’avais connaissance avant de donner mes arguments datant de 30 ans !

      3. « qui ont vu ces séquences au ciné, à la télé où in live auront la sagesse de ne pas se mettre en danger // et sans que leur bras ait « vécu » cette expérience . »
        Je crois que la 1ere partie de cette proposition ne colle pas avec la 2ième.

  29. Ce vous expliquez Paul à propos du serpent est un mécanisme réflexe qui passe par le cerveau reptilien (justement) et ou la conscience n’a rien à dire (et heureusement)

    Mais la conscience réflexive c’est autre chose (je suis conscient de l’objet de mon désir et conscient d’être désirant (d’avoir un désir)), cela met en jeu le cortex frontal (et bien d’autres structures dont une mémoire autobiographique…)

    Vous en déduisez que la « conscience » n’est pas propre à l’homme, ni même aux animaux « supérieurs »
    C’est un peu rapide, trop schématique (et à mon avis prématuré) comme conclusion.
    En tous cas on ne voit pas de liens de cause à effet, et ce n’est pas du tout l’avis d’une majorité de neurobiologistes
    Décidément, vous aimez bien l’hétérodoxie 🙂

      1. Je pense au bouquin de Chris Frith
        « Comment le cerveau crée notre univers mental »

        Il faudrait développer.
        J’ai l’impression que les neurosciences avancent de leur coté et que les ingénieurs en programmation (y compris en IA) avancent de leur coté mais que les passerelles sont fragiles et mal bâties ce qui engendre des incompréhensions de part et d’autre (et au pire des anathèmes).
        En plus certains physiciens s’en mêlent (et s’emmêlent)

        Gerald Edelman était très intéressé par le rapprochement des deux disciplines mais il doit être vieux maintenant et je n’ai pas suivi ses travaux

  30. Paul Jorion m’a conseillé un jour de regarder la série « Real Humains ».
    J’ai gardé en mémoire cette anecdote (c’est dans les premiers épisodes) :
    Un robot « ménager » arrive dans une famille. (Ces robots ressemblent physiquement comme deux gouttes d’eau à des êtres humains).
    Les enfants (ados) se mettent à mal lui parler. A lui donner des ordres « comme à un chien », j’ai envie de dire… Alors la mère, qui était au départ très réfractaire à l’arrivée de la machine, dit aux enfants (je cite de mémoire) :
    « – A partir de maintenant, vous allez respecter ce robot, vous cesserez de mal lui parler.
    – Mais pourquoi, C’est qu’une machine !
    – Par dignité. »
    Et dans le contexte de la série, cette réaction étonnante apparaît comme parfaitement logique : les enfants effectivement devenaient indignes d’eux mêmes à maltraiter ce « pauvre » robot.

    Je n’ai jamais trouvé manière plus percutante de décrire le « lien » qui nous relie nécessairement aux « choses » qui nous entourent, et à travers lesquelles nous prolongeons notre être propre. Je pense que le temps est proche où une nouvelle Brigitte Bardot viendra défendre « l’association de protection des robots ».
    Lecteur, ne ris pas tout de suite. Je pense qu’il faudra prendre au sérieux la nouvelle Brigitte. Parce que ce que ça protègera, au fond, c’est nous mêmes. Notre humanité contre (notre) barbarie.

    1. J’ajoute qu’on pourrait résumer la chose ainsi : le « droit à la dignité » existe pour les objets, algorithmes ou animaux dans l’exacte proportion selon laquelle nous nous identifions à eux. (C’est pas pareil d’écraser un chien ou une bactérie).

      1. Certains réfléchissent déjà au concept de « personnalité juridique des robots » . ( voir mon lien plus haut sur les travaux conduits à polytechnique de Lausanne) .

      2. De son côté , Michel Serres ( en tous cas , c’est chez lui le premier que j’ai rencontré cette idée ) ,prêche depuis de nombreuses années pour faire du vivant un sujet ,et non pas un objet, de droit .

      3. >Juanessy
        Je préfère l’approche « Real Humains » à celle de M. Serres, parce que la condition de récit métaphorique de la série la conduit à analyser l’essentiel qui est la relation que chacun peut avoir au sujet.
        Je veux bien, le vivant sujet de droit, mais s’il faut un statut juridique à chaque bactérie, ça risque d’être compliqué…

    1. La caméra va du visage vers nous. Le symbole play va de nous vers le visage.
      (Analyse graphique uniquement !)

      1. C’est juste le contraire,c’est vous qui regardez la camera et c’est le bouton qui vous fait cliquer. Le robot Jorion est d’une nouvelle génération plus interactive et …manipulatrice.

  31. Commentaire supplémentaire pour un week-end de réflexions:
    Une étude plus approfondie montre que le Swartzy,photo de gauche,bien qu’assez populaire sur grand écrans et ayant été choisi pour gouverner la Californie il y a quelques années, a quelques faiblesses de construction notamment avec les femmes de chambre,tout comme le vieux model DSK employé naguère dans le FMI . Le model Jorion ne semble pas avoir ce défaut de fabrication – au moins je n’ai pas lu ou entendu de tels rapports – Bien que souvent ses allusions a Freud nécessitent quelques précautions. Néanmoins sous son air bon Papa il se présente comme un redoutable adversaire dans notre guerre contre la robotisation: Il aurait tendance a nous faire baisser les bras,au sens propre comme au figuré, en disant que le travail disparaît et que les robots ont déjà gagné – Que la Résistance est futile – Formule connue par ceux familiers avec les Borgs (Star Trek) –

    1. Dont acte. Bravo pour ce montage:
      L’opposition entre l’œil en tant que « caméra subjective » pour Schwarzy et en tant qu’icône d’entrée vers Paul Jorion, m’a conduit à relire le texte d’Yvan Illich « Surveiller son regard à l’âge du show » ( La perte du sens, ed. Fayard) Il y expose en résumé une histoire du regard. D’Euclide à la caméra se construit un regard subjectif si l’on considère que les rayons visuels sont émis par l’oeil – on jette un regard doux, ou méchant, ou le mauvais œil. Au Moyen Age le régime scopique scolastique conserve l’idée d’un regard actif, sans image, qui se dirige vers l’extérieur( le personnage le plus grand n’est pas le plus proche, mais le plus important) Mais la vision ne pose plus une volonté personnelle sur l’objet là où il se trouve. L’œil a désormais le pouvoir d’extraire des « universaux » [à partir] des formes que les choses émettent par leur rayonnement, et sont des « signatures » empreintes de Celui qui les éclaire. Il y aura évolution vers le perçu de valeurs objectives partageables sur les choses indépendamment du sujet individuel. A partir de la Renaissance « l’oeil est perçu comme un instrument sur le modèle de la chambre obscure » où la rétine constitue un écran d’échange entre une intelligence interne émise vers elle et les rayons lumineux émis sur ce « mur » depuis l’extérieur. Une perspective ( comme point de vue objectif choisi comme le meilleur cliché sur les choses) ouvre une symbolique des images figuratives.. Au XIX eme siécle dit Illich s’ouvre « une époque des horizons sans entraves, des points de vue indépendants de toute position » L’écran-tableau ( mur d’images symboliques, fausse fenêtre sur la nature…) devient l’image de cette interface qu’est la chose vue entre une diversité de cônes visuels possibles et une variété du rayonnement lumineux qui rend contingentes les impressions colorées, le ton des choses . Aujourd’hui sur l’écran de l’Ipad je scanne à la recherche des icones ( signes purement arbitraires) qui font signe d’ouverture à un show d’images, avec ce pouvoir magique des doigts et de la main ( digitalité) d’élargir ou resserrer la prise du vue, ouvrir ou fermer les séquences à ma guise, de me faire tout un film ou de zapper… Ma petite fille ouvre sur son écran, avec ses gestes de méduse, pour moi qui ne suis plus de son monde, des pulsations
      irisées de vie sous-marine…

  32. @ PJ
    Bonjour,
    Je ne sais pas pourquoi, mais votre « Le « pas mal » est-il là pour signaler une objection ? Si oui, laquelle ? » m’a fait penser à la machine de Turing. Ceci dit il y a des objections. Si vous retirez le bras c’est que vous savez que la morsure est dangereuse. Alors pourquoi vouloir caresser ce danger ? Par contre si vous vous brûlez accidentellement alors le mouvement du bras est réflexe. Le câblage est prévu pour ça. D’autre part si je demande à quelqu’un de me restituer tout ce qu’il a en mémoire, ce sera mission impossible. La mémoire est incompatible avec la conscience. Les souvenirs surgissent à l’occasion, par exemple, de stimuli extérieurs et ne se manifestent pas toujours par des actes. Un autre exemple : un gardien de but au hand-ball avance le bras ou la jambe dans la direction du tir de l’attaquant, bien sûr, avec quelques centièmes de secondes de retard, mais ce qu’il faut savoir, c’est qu’il prend des informations sur la position du corps, de l’avant bras et de la main au moment du tir; ça va très vite mais c’est conscient. Sinon il n’arrêterait aucun tir, sauf coup de pot.
    Et puis, avec des câblages identiques, les individus présentent des comportements et des personnalités différents. L’homme est une merveilleuse créature !

  33. Gerald Edelman, Biologie de la conscience.

    Le fait de considérer la mémoire comme une recatégorisation et les concepts comme les produits d’un cerveau qui classe ses propres activités par catégories va nous fournir les éléments nous permettant d’atteindre notre objectif : donner une description biologique de la conscience. En partant des principes de base de la TSGN*, nous avons pu relier la triade fondamentale constituée par la catégorisation perceptive, la mémoire et l’apprentissage à l’apparition de capacités conceptuelles. Remarquez cependant que nous n’avons eu besoin d’aucune hypothèse théorique supplémentaire, mais seulement de supposer qu’il se produit, au cours de l’évolution, des changements dans la morphologie cérébrale qui modifient l’organisation des connexions réentrantes. Il se trouve qu’une autre modification de la connectivité réentrante va également nous permettre de comprendre comment nous sommes devenus des êtres conscients.

    *TSGN : Théorie de la sélection des groupes neuronaux.

    Les hypothèses sur la conscience, en particulier celles des phi­losophes, sont innombrables. Mais la plupart d’entre elles ne for­ment pas ce que nous pourrions appeler des théories scientifiques bâties sur des principes, fondées sur l’observation et associées aux fonctions du cerveau et du corps. Plusieurs théories fonctionnalistes et computationnelles de la conscience ont récem­ment été formulées. Elles sont en général de l’un des deux types suivants : la conscience est supposée efficace ou bien considérée comme un épiphénomène. Dans le premier cas, la conscience est assimilée aux programmes superviseurs des systèmes informatiques et dans le second, à un sous-produit fascinant, mais plus ou moins inutile, des calculs.
    Cependant, aucune de ces notions ne fait directement appel à la biologie ou à la nature de l’incarnation de la conscience. Or il est évident que cela est indispensable a toute théorie de la conscience fondée sur l’évolution. Une théorie de ce genre doit en effet proposer des modèles neuronaux explicites permettant d’expliquer comment apparaît la conscience. Elle doit nécessairement expliquer comment la conscience apparaît au cours de l’évolution et du développement. Elle doit relier la conscience aux autres aspects de la vie mentale, tels la formation des concepts, la mémoire et le langage. Et elle doit décrire des tests permettant de confronter, de façon très rigou­reuse, les modèles qu’elle propose aux données neurobiologiques. Ces tests devront être effectués de préférence au moyen d’expériences réelles, et au moins à travers ce que l’on appelle des Gedanken experimenten – des expériences de pensée. Dans ces dernières, toutes les propriétés postulées devront être parfaitement compatibles avec les observations scientifiques actuellement connues, quel que soit le domaine de recherches dont elles sont issues, mais, surtout, avec celles de la neurobiologie.

    Il est vrai qu’en jetant la pièce conscience à la poubelle, les difficultés théoriques de l’AI se voient singulièrement simplifiées. Réjouissons-nous. Il ne manquait plus qu’on invente une machine consciente et inconsciente à la fois, héritière de notre Œdipe, de nos pulsions assassines envers le père et amoureuses envers la mère et qui terminerait par nous considérer comme une horde primitive dont la sélection naturelle l’aurait extrait. Ce serait qui sa mère, au fait ?

    1. Mais je pense aussi volontiers que la physique, alliée à la biologie, nous feront progresser plus vite que l ‘apport divin des mathématiques .

    2. @ Paul
      Je viens de lire votre article du mystère de la chambre chinoise et je crois bien que la conversation va mourir, après avoir suivi son gradient, dans un puits de potentiel.
      Vous m’avez convaincu (quel mot affreux con vaincu)

      1. Mais non , mais non !

        Convaincre , c’est vaincre ensemble !

        Ceci étant , il faut maintenant faire lire le « mystère de la chambre jaune » , au juge invoqué par Michel Leîs dans son réquisitoire ;

        Pour le convaincre .

      2. Comme je ne m’attarde en général que sur la fin des textes , j’ai trouvé que les trois dernières lignes étaient fortes .

        Du vécu de l’intérieur ?!…

  34. Une blonde .

    Si naissent des jumeaux , elle demandera qui est le père du second marmot .

    ( Qu’est ce que je vais déclencher !)

      1. ça n’est pas à elle que je pensais , mais si vous le dîtes ….

        ( PS : j’espère pour mon intégrité physique qu’il n’y a pas de blondes dans l’assistance , et même sans ça, je ne suis plus qu’à moitié tranquille ) .

  35. On va donc attendre la réponse des trois Google-men .

    Mais on aurait bien aimé avoir des réponses d’autres sites de recherche sur le sujet .

    Sinon Vigneron va dire que Paul Jorion est à la solde de Google .

  36. Le « corps » semble secondaire dans cette approche (un input sensoriel au systeme), alors qu’il est central a celui-ci. Il me semble que d’autres chercheurs prennent plus en compte cet aspect central du « corps ».

    http://www.internetactu.net/2014/09/25/les-metaphores-aux-sources-de-la-pensee/

    « Pour ce chercheur (Lakoff), en effet, toute notre pensée est conditionnée par notre corps : elle est incarnée. Les chercheurs parlent d’ailleurs de “cognition incarnée” ou embodied cognition.

    Lakoff ne s’est pas imposé facilement. Au début de sa carrière, il s’est heurté à Noam Chomsky et à ses disciples qui considèrent le langage comme un système formel de relations câblées dans le cerveau. »

    De plus, cette perspective (que je qualifirai « sans corps ») decrit un fonctionnement « reactif » de l’individu, cela induit logiquement qu’il n’y a aucun « libre-arbitre » (il n’y en a pas besoin dans cette perpective). Spinoza a d’ailleurs deja explicite cela des le XVIIe siecle: les hommes se croient libre, car ils ont conscience de leur actions, et non des causes qui les determinent.
    Et c’est fort juste, mais c’est ignorer la « liberte » qui est lie a l’adhesion au « 3eme ordre de connaissance », l’intuition. En effet quel est le status d’un acte « creatif » dans cette representation ? Qu’est ce que la « creativite » dans cette perspective ? Elle me semble comme nie, ou plutot reduite a une dynamique d’affect pour evaquer des trop pleins…juste faite pour descendre des montagnes…pour rester confrome au cadre du systeme proposé.

    Cela propose un systeme tres coherent, mais cela demande de passer un certain nombre de choses sous silence…par exemple, l’intuition, et « le langage oubliée » tel qu’un Erich Fromm l’a tres bien explique (http://fr.m.wikipedia.org/wiki/Erich_Fromm).

  37. sur twitter #enmi14 Simondon: nous sommes des machines différentes car imprévisibles. Imprévisibilité menacée par la « vérité » des datas ++

  38. Les robots, l’intelligence artificielle et en particulier le « machine learning » presentent de grands dangers pour l’humanite par les perturbations de l’organisation qu’elles vont entrainer, diminution du travail, neo-luddisme, la je suis d’accord. Par contre, de la a penser que les machines pourraient nous survivre, comme les mammiferes ont survecu aux dinosaures lors de la derniere extinction de masse, je reste plus prudent. Bien sur, certaines machines sont en passe de devenir plus imaginatives et d’avoir de plus grandes capacites d’apprendre que nous. Mais notre adaptation aux conditions de vie sur terre ne sont pas liees a notre intelligence. Elle sont liees a notre capacite de nous reproduire et a survivre a partir des choses les plus abondantes, de l’eau, de l’air, des sucres vegetaux. Tandis que pour produire le moindre microprocesseur, il faut une usine et des quantites d’energie enormes, des materiaux provenant de sites dissemines dans le monde entier. Ces machines sont donc loin pouvoir de se reproduire de maniere aussi elegante que le vivant, ni d’etre aussi resilientes et donc durables. Mais qui sait.

    Les tenants de la singularite souffrent du biais d’optimisme selon moi, ils voient la loi de Moore, se prolonger indefiniment suivant sa loi geometrique, alors que la caracteristique des lois geometriques dans le monde reel, c’est d’atteindre tres rapidement des limites physiques. Tout biologiste ayant manipule des boites de Petri connait bien le phenomene.

    Bref, je reste plus inquiet de la betise naturelle que de l’intelligence naturelle. D’autant que les dangers qui menacent notre survie en ce siecle sont nombreux et varies. Donc, l’intelligence artificielle est pour moi un danger parmi d’autre pour notre survie.

    Paul Jorion n’a t’il pas dit: « les peurs fantasmatiques des hommes ont joué un rôle plus décisif dans leur histoire que leur évaluation objective des dangers qui les menaçaient réellement. »

    😉

    Je viens de lire le mystere de la chambre chinoise, qui m’a rappelee d’autres lectures.. En vrac:

    Spinoza, pour la fin du libre arbitre https://www.youtube.com/watch?feature=player_detailpage&v=87sEeVj057Q#t=904.

    Festinger, pour la dissonance cognitive, qui me fait penser au gradient que nos consciences tendent a minimiser.

    Kahneman, dont les « slow and fast thinking » ressemblent a la division corps / imagination, mais surtout pour le « sense of agency », l’attribution causale qui nous donne l’illusion d’etre maitres de nos actes.

    Je crois que je vais commencer « Principes des systemes intelligents »

  39. Ce n’est pas la honte prométhéenne de Günther Anders ?!
    Dans les années 50, Günther Anders avait formulé 3 thèses principales face au progrès technologique dans son œuvre « L’Obsolescence de l’homme » :  » que nous ne sommes pas de taille à nous mesurer à la perfection de nos produits ; que ce que nous produisons excède notre capacité de représentation et notre responsabilité ; et que nous ne croyons que ce qu’on nous autorise à croire – ou plutôt ce que nous devons croire, ou plutôt ce qu’il faut impérativement que nous croyions ».

Les commentaires sont fermés.