Espace de libertés : Du cerveau humain à la machine, N°486, février 2020

Ouvert aux commentaires.

Qu’en est-il de l’Intelligence Artificielle ou « IA » ? Où en sommes-nous ? Existe-t-elle même ? et si la réponse était « Oui », n’aura-t-elle qu’une influence modeste sur notre vie quotidienne ou constituera-t-elle – ou constitue-t-elle déjà – une authentique révolution ?

Les deux opinions se rencontrent bien sûr parmi les personnes peu informées mais, de manière plus surprenante, on les entend aujourd’hui également dans la bouche d’experts. Certains d’entre eux affirment que nous sommes proches de la « Singularité », le moment où les machines seront devenues à ce point plus intelligentes que nous qu’elles ne chercheront plus à nous consulter, et où nous, êtres humains complètement déboussolés, leur confieront des décisions essentielles pour notre avenir. D’autres spécialistes déclarent que l’expression « intelligence artificielle » à son stade actuel d’avancement, n’est rien de plus que du battage médiatique.

Qui a raison, qui a tort ? S’agit-il simplement d’une de ces questions du type « verre à moitié vide ou verre à moitié plein ? », où c’est le tempérament de celui qui s’exprime, morose ou enthousiaste, qui détermine son opinion ?

Pour répondre à la question, examinons les faits. Et pour commencer, une brève histoire de l’IA.

En 1957, Frank Rosenblatt met au point sur un ordinateur IBM le premier logiciel s’efforçant de mimer un réseau de neurones tel qu’il existe dans notre cerveau. Il l’appelle « perceptron ». Ce logiciel permet de reconnaître un objet. Après une période d’apprentissage durant laquelle la machine dit si oui ou non une image représente, par exemple, un chien, et où on la corrige en cas d’erreur, la machine cesser de se tromper.

En 1969, Marvin Minsky, membre du petit groupe qui en 1956, au Dartmouth College, avait inventé le terme d’Intelligence Artificielle, et Seymour Papert, célèbre pour avoir inventé le langage de programmation Logo permettant aux enfants de se familiariser avec l’informatique, publient conjointement le livre Perceptrons visant à prouver que ces réseaux de neurones artificiels sont sans avenir car incapables de faire certaines opérations élémentaires (le ou « exclusif » : soit X, soit Y, mais pas les deux). La recherche sur ces outils s’interrompt. On parlera plus tard pour cette période, d’« hiver de l’IA ». En 1986, un livre intitulé Parallel Distributed Processing (traitement distribué parallèle), publié par David Rumelhart et James McClelland, relance la recherche sur les réseaux neuronaux. Les progrès dans l’usage de ceux-ci seront désormais constants. L’IA est véritablement lancée.

Ne s’était-il rien passé durant l’« hiver de l’IA ». Si, mais elle progressait dans une autre voie, appelée « symbolique », mobilisant des méthodes statistiques essentiellement, de la gestion de base de données ainsi que la logique formelle, un modèle de la logique humaine qui l’assimile à un objet mathématique (un « treillis orthomodulaire »).

La grande surprise des années 1980, 1990 ce fut cela : que la technique qui émergerait comme la plus efficace ce n’était pas l’une des plus pointues du point de vue mathématique, mais la simulation d’un réseau neuronal comme celui que constitue notre cerveau, c’est-à-dire la solution que la nature avait découverte avec nous, « animaux pensants », comme l’approche pertinente pour produire de l’intelligence : la capacité à résoudre des énigmes et à ne pas s’arrêter devant l’obstacle mais inventer alors des stratégies alternatives.

Où en sommes-nous aujourd’hui ? Nous savons désormais combiner efficacement la simulation du fonctionnement du cerveau humain (en tirant parti de la capacité de l’ordinateur à représenter des objets où un très grand nombre d’éléments sont interconnectés), et les procédures symboliques (en tirant parti de la vitesse de l’ordinateur : de l’ordre du million de fois plus rapide que le cerveau humain).

La robotique nous a remplacés d’abord dans le travail de force, ensuite dans les tâches réclamant une très grande précision, éventuellement à l’échelle microscopique, l’IA nous remplace petit à petit dans le travail intellectuel.

Les objections à l’idée même que l’on pourrait produite de l’intelligence « artificielle » tombent l’une après l’autre devant la succession de nouveaux exemples de réalisations particulièrement spectaculaires.

Les progrès les plus convaincants aux yeux du grand public sont bien sûr ceux portant sur des jeux familiers. Un exemple : le poker. En janvier 2017, l’Intelligence Artificielle Libratus gagnait 1,7 millions de dollars (heureusement fictifs) en battant quatre champions de poker incontestés. En juillet 2019, un nouveau logiciel, appelé Pluribus, battait cette fois les meilleurs champions de poker dans des parties à six joueurs. Les programmeurs avaient ici complété le réseau neuronal par des fonctions où la capacité massive de calcul jouait un rôle décisif. L’IA simule ainsi au hasard à partir de l’état présent du jeu des milliers de coups dont elle mesure pour chacun son efficacité. Elle n’attribue à aucun des cinq joueurs auxquels elle s’affronte une stratégie particulière mais en simule quatre différentes pour chacun d’entre eux.

Conséquence de tels succès, les objections à l’Intelligence Artificielle que l’on trouve aujourd’hui se sont réduites à deux. La première consiste à dire que les programmes sont spécialisés, et que, par exemple, l’IA qui gagne aux échecs ne peut pas vous servir à boire, ce qui a conduit un ingénieur facétieux à fabriquer un robot qui vous sert du café pendant qu’il vous bat aux échecs. La réponse globale à cette objection est bien entendu l’exemple du smartphone, un mini-ordinateur où une multitude de fonctions ont été combinées en un seul appareil, rien n’interdisant bien entendu de faire à l’avenir exactement la même chose avec des applications d’IA, comme le GPS aujourd’hui qui intègre repérage, navigation, calculs de distances et de temps, et commentaire vocal.

La deuxième objection consiste à affirmer qu’il manque toujours « quelque chose d’essentiel » à la machine, dont nous disposons nous, êtres humains, et qui lui fait encore défaut ou qui lui manquera toujours à elle, par exemple, l’« intuition », le « sentiment », la « conscience », etc.

Pour ce qui est de la conscience, ma formation de psychanalyste m’a convaincu que la quasi-totalité, pour ne pas dire la totalité, des tâches intelligentes que nous effectuons ne nécessitent pas la présence d’une conscience, une instance qui me semble en fait associée au mécanisme de la mémoire, à son inscription et à la remémoration, plutôt qu’à la prise de décision, à propos de laquelle il a été prouvé dès les années 1970 que son sentiment succède à l’acte posé plutôt qu’il ne le précède, soulignant le caractère illusoire du rôle de la conscience dans la décision.

Pour ce qui est de l’intuition et de sa nécessité, le jeu oriental de go nous offre une intéressante réponse. Les revues spécialisées insistaient jusqu’en 2016 sur le fait que le nombre de combinaisons possibles sur le goban, le tablier à 361 emplacements sur lequel le jeu se déroule, dépassait la capacité de calcul d’un ordinateur. Pour gagner au go, ainsi allait la rumeur, il fallait impérativement mobiliser une qualité propre à l’humain seul : l’intuition. Or, rien n’y fit : cette année là l’application AlphaGo battit les champions l’un après l’autre. Les programmeurs interrogés expliquèrent bien qu’ils n’avaient codé nulle part de l’« intuition » : celle-ci était apparue d’elle-même, comme une conséquence de l’apprentissage, un mystère qui n’en est pas un en réalité puisque c’est exactement de cette manière-là que l’intuition apparaît précisément chez nous.

Pour ce qui est de l’émotion dont la machine aurait un besoin impératif pour devenir « vraiment » intelligente, la réponse que je peux apporter à cette objection est aisée, il se fait en effet qu’à l’époque où j’étais chercheur en intelligence artificielle, de 1987 à 1990, l’originalité du logiciel ANELLA que j’avais mis au point était précisément qu’il avait pour moteur une dynamique d’affects, autrement dit que c’était l’émotion qui guidait son comportement.

L’acronyme ANELLA était pour Associative Network with Emergent Logical and Learning Abilities, c’est-à-dire « Réseau associatif à propriétés émergentes de logique et d’apprentissage », ma contribution au projet d’Intelligence Artificielle Connex des British Telecom.

Le logiciel, qui répondait aux questions de son utilisateur, assemblait les mots appartenant à son vocabulaire en fonction des valeurs d’affect associées à des paires de mots. Par exemple, quand on atteignait « pomme » en provenance de « poire », « pomme » avait une certaine valeur d’affect, mais une autre si l’on avait abouti à « pomme » à partir d’« Adam ». Ces valeurs étaient définies en fonction des réponses qu’ANELLA avait reçues auparavant de ses interlocuteurs : évaluant l’intérêt de la personne pour le message qu’elle lui avait fourni. C’est cela qui lui permettait de juger comme pertinentes ou non dans le contexte d’une conversation particulière, les informations qu’elle avait stockées en mémoire. Si l’information qu’elle avait proposée avait été appréciée, elle la plaçait « en haut de sa pile », et elle la présenterait en premier lors d’une conversation ultérieure.

Le simple fait de donner à la machine le moyen de simuler l’émotion créait une dynamique d’apprentissage et guidait une association entre les mots prononcés qui apparaissait logique, confirmant ce que les psychologues ont pu observer : que la logique émerge spontanément des associations que nous faisons entre les mots que nous prononçons, qu’elle n’est pas la mise en œuvre d’un calcul.

C’était bien entendu moi qui avais programmé ANELLA, pour que si une notion inconnue apparaissait dans ce que lui disait son interlocuteur, qu’elle recherche l’information qui lui permettrait de la connecter à un élément existant dans sa base de données, associée à une valeur d’affect, pour étendre son domaine de connaissance.

L’instruction était du type : « Si un mot est utilisé qui n’est pas encore stocké en mémoire, poser la question ‘Est-ce que je peux relier ce mot à quelque chose que je sais déjà ?’, à ce qui constitue déjà notre connaissance commune ». C’est-à-dire que le désir était inscrit dans le code : si une notion n’est pas reconnue, faire en sorte qu’elle puisse être inscrite dans la base de données du système.
 Ce qui est bien sûr exactement ce que font les enfants devant un mot inconnu : « Ça veut dire quoi ? ». J’avais instruit ANELLA pour qu’elle puisse faire la même chose.

On m’a souvent objecté au fil des années : « Oui mais, c’est de la simulation ! », or personne ne l’ignore, ce mot de « simulation » signifie simplement que c’est une machine qui le fait, il n’a pas de signification au delà de cela. Quand c’est de nous qu’il s’agit, on ne dit pas que c’est de la simulation : je ne vais pas vous dire « Vous simulez le fait de réfléchir ! », mais quand il s’agit d’une machine on dit que c’est de la simulation.

Donc, là aussi, pour l’émotion, comme pour l’intuition ou la conscience, certains affirment : « On ne pourra jamais faire ça ! » Et la réponse est, pour l’intuition : « On l’a déjà fait ! ». Pour l’émotion : « Si ! Cela a déjà été fait en IA : et même à la fin des années 1980 ! On n’en a pas encore trouvé l’usage, ce qui est une autre question, mais on y reviendra certainement un jour ! ». Quant à la conscience, j’ai déjà dit ce que j’en pensais : « Même nous, humains, n’en avons pas vraiment besoin : notre corps prend en général les bonnes décisions, avant même de nous avoir consultés ! ».

Partager :

54 réflexions sur « Espace de libertés : Du cerveau humain à la machine, N°486, février 2020 »

  1. Quelques remarques/ questionnements :
    Notre corps, c’est une forme de conscience, non ? Il est individualisé au plus haut point. On ne peut pas faire une greffe d’un organe d’un individu à un autre sans devoir d’abord réduire au silence le système immunitaire du receveur. Cette individualisation du corps, c’est une forme d’intelligence, de conscience.

    Apprendre un langage, c’est une chose. Créer un langage ou de nouveaux mots ce qui est le cas d’une langue vivante, est-ce que c’est déjà fait ?

    Y a t-il selon vous une différence significative entre « j’ai instruit Anella pour qu’elle puisse faire la même chose » et l’enfant qui découvre le monde de lui-même. Ou bien la simulation de la curiosité et-elle suffisante. Comment instruire une curiosité tout azimut ?

  2. L’intelligence artificielle, je ne suis pas technicien et encore moins scientifique, j’ai les connaissances que l’école publique m’a inculquée jusqu’à la fin du lycée, plus une instruction en autodidacte délivrée par quelques ouvrages de vulgarisation.
    De mon point de vue donc, celui de l’ignare, cette technologie, fascinante par son omnipotence, omniscience, ne manque pas de soulever une crainte/terreur du déclassement de l’humain dans son rapport d’usage qu’il échange avec les autres à travers des savoirs, des fonctions qui souffriront la comparaison avec l’efficacité de l’IA – nous souffrons déjà de la concurrence de l’ordinatisation de la production, qui loin de nous décharger du travail, nous enjoins à en faire toujours plus pour soutenir/suivre la capacité productive de toutes ces machines.
    Au delà du problème de l’emploi, c’est aussi dans le rapport à l’autre que je m’interroge sur l’usage généralisé de l’IA pour résoudre les problèmes que nous rencontrons dans nos interactions – quid du facteur humain et de l’empathie qui en découle si nos rapports sont réglés/régulés par l’efficience d’une machine – d’autant qu’il va en falloir de l’empathie pour que les plus à même d’accompagner cette évolution technologique acceptent une large population devenue improductive à laquelle il va bien falloir donner les moyens de vivre/survivre ?

  3. Bonjour à tous,

    Est-ce qu’il ya moyen de simuler une modélisation mnésique de type « Annela » sur un réseau de Hopfield ?
    Avez-vous connaissance d’un simulateur élémentaire (et gtatuit) d’un réseau de Hopfield ?.

    J’essaie d’utiliser Grin (GRaph INterface) de façon, en tâtonnant pour comprendre comment fonctionnerait une métaphore selon diférentes pondérations.

    L’idée concernant le type Hopfied est que l’ensemble du lexique soit interconnecté et que le poids de chaque lien représente la valeur d’affect du lien entre les mots du lexique. Bien entendu, selon le modèle mnésique de Paul, chaque mot est interconnecté à tous les autres par sa composition phonétique, indépendamment de sa compréhension par des liens effectifs à d’autres mots du dictionnaire. Il faudrait donc, il me semble, ajouter une sorte de pondération des liens en fonction des similarités formelles du lexique, peut-être en imaginant d’évaluer chaque lien en fonction d’un second réseau de Hopfield sur le plan phonétique, ou de vérifier que les phonèmes forment des « un sous réseaux » structurés en pelote et de fait pousseraient aux liaisons lexicales.

    Tom Froese (et al.) travaillent sur l’intégration de réseaux de Hopfield (auto réparateur) en Deep Learning, et produisent des résultats intéressants. L’équipe a déjà produit plusieurs articles ayant pour but montrer que la crise de reconfiguration d’un spiking neural network peut servir de modèle à l’état de transe en psychologie et en sociologie, sur l’exemple de sociétés amérindiennes .

    Leur approche s’annonce déjà comme un nouveau couteau suisse de l’anthropologie, de type désir mimétique de Girard, mais leurs expérimentations ne comportent aucune dimension sémantique qui pourrait simuler le fonctionnement symbolique du réseau d’affect. (Toutefois ce couteau suisse est déjà attendu par un public de thétrapeutes et d’ingénieurs sociaux new-âge.)

    Biblio:

    Tom Froese, -/The ritualised mind alteration hypothesis of the origins and evolution of the symbolic human mind
    Tom Frose et al.-/Modeling Collective Rule at AncientTeotihuacan as aComplexAdaptive System: Communal Ritual MakesSocialHierarchy MoreEffective
    Tom Fose et al. /Reflections on the Complexity of Ancient Social Heterarchies: Toward New Models of Social Self-Organization in Pre-Hispanic Colombia

    Amirhossein Tavanaei∗, et al , /Deep Learning in Spiking Neural Networks

    Le site de Froese est fermé, mais les articles sont encore disponibles sur son site
    https://froese.wordpress.com/

    Sur Hopfield

    Filippo Galli,/ Hopfield Networks are useless. Here’s why you should learn them.
    https://towardsdatascience.com/hopfield-networks-are-useless-heres-why-you-should-learn-them-f0930ebeadcd

    Plus hard:
    Amirhossein Tavanaei∗, et al __/Deep Learning in Spiking Neural Networks

  4. Bonjour,
    Je crois savoir que les conséquences du théorème d’incomplétude de Gödel, qui nous explique grosso modo qu’on ne sera jamais certain qu’une IA exécutera ce pour quoi elle a été programmée, risque de doucher l’enthousiasme des plus fervents aficionados de L’IA :

    D’après Olivier Bousquet, qui dirige la recherche en apprentissage machine pour Google en Europe :

    « Les algorithmes apprennent simplement à classer des items (chats, chiens…) dans des catégories. Pour ce type d’apprentissage, on a une théorie qui est décidable (baptisée PAC pour Probably Approximately Correct Learning) : il a été prouvé qu’avec un nombre suffisant d’exemples, la machine apprendra correctement à reconnaître les catégories. Mais si on dépassait le stade basique de la classification, le nouveau théorème dit qu’il n’y aura aucune théorie générale garantissant le bon apprentissage par les algorithmes : on butera sur le mur de l’indécidabilité. »

    Ce a priori n’est pas demain la veille que l’on verra des véhicules 100% autonomes dans les rues.

  5. Bonjour,
    Je crois savoir que les conséquences du théorème d’incomplétude de Gödel, qui nous explique grosso modo qu’on ne sera jamais certain qu’une IA exécutera ce pour quoi elle a été programmée, risquent de doucher l’enthousiasme des plus fervents aficionados de L’IA :

    D’après Olivier Bousquet, qui dirige la recherche en apprentissage machine pour Google en Europe :

    « Les algorithmes apprennent simplement à classer des items (chats, chiens…) dans des catégories. Pour ce type d’apprentissage, on a une théorie qui est décidable (baptisée PAC pour Probably Approximately Correct Learning) : il a été prouvé qu’avec un nombre suffisant d’exemples, la machine apprendra correctement à reconnaître les catégories. Mais si on dépassait le stade basique de la classification, le nouveau théorème dit qu’il n’y aura aucune théorie générale garantissant le bon apprentissage par les algorithmes : on butera sur le mur de l’indécidabilité. »

    Ce a priori n’est pas demain la veille que l’on verra des véhicules 100% autonomes dans les rues.

  6. Émotion, intuition, conscience : ok, l’IA ferait jeu égal avec l’homme dans ces 3 domaines.
    N’oubliez-vous pas une différence irréductible entre l’homme et l’IA ? L’homme est engendré, l’IA est créée, l’homme naît d’un homme et d’une femme, l’IA sort de mains d’hommes. Il sera toujours ainsi, cette différence n’est pas mince et elle conditionne tout le reste.

      1. Tout le reste ?
        Eh bien… l’idée que nous faisons de nous et de l’IA.
        L’homme n’est pas une sous-IA. Homme et IA, nous ne sommes pas de la même « espèce ».
        Donc en effet cette différence conditionne la façon d’envisager les utilisations de l’IA.
        C’est sans doute un combat d’arrière-garde. Quelques individus et quelques groupes, maîtres de l’IA, ont déjà entrepris, se justifiant par les impératifs de la sacro-sainte concurrence, de l’imposer au reste de l’humanité. C’est terrifiant !
        Alors que nous nous rendons enfin compte de la façon outrancière dont nous avons voulu dominer la nature, cette domination est en train de s’étendre encore, englobant désormais l’homme lui-même, par le biais de machines qu’il a lui-même créées. C’est proprement insensé !
        Se rappeler que l’homme est engendré, non créé, me semble un bon point de départ pour une vue raisonnable des choses humaines. S’il n’est pas trop tard.
        Mais je ne suis qu’un vieux schnock qui répète ce qu’il entend sur Sputnik et RT… Inutile de me le rappeler.

    1. « l’homme naît d’un homme et d’une femme, »

      Oui et même il paraît que les filles c’est dans les fleurs et les garçons dans le choux.

      DMB ou comment passer furtivement du conservatisme basique sans en avoir l’air…

      Blabla engendré, blabla crée, blabla n’importe nawak sous un verni très policé en fait.

      Sauf si j’ai tout oublié primo, non, on ne naît pas de popa et moman, mais de la « fusion » assez extraordinaire entre un spermatozoïde et un ovule, deuxio en fait le truc se fait généralement donc à 4 mais de nos jours ce n’est même pas nécessaire ! 2 suffisent avec une pipette, enfin au démarrage !

  7. Quant à la conscience, j’ai déjà dit ce que j’en pensais : « Même nous, humains, n’en avons pas vraiment besoin : notre corps prend en général les bonnes décisions, avant même de nous avoir consultés ! ».

    Je n’en suis pas totalement convaincu. Exemple au ras des paquerettes:

    Quand je penètre dans une pièce sans fenêtre de la maison que j’habite, j’allume en général la lumière automatiquement (autrement dit sans y penser.) Sauf que si je ne vais rester que quelqus secondes dans la pièce et que j’y vois suffisamment en laissant la porte ouverte le même automatisme me dispense très souvent d’allumer la lumière.

    Dans ce dernier cas le problème est qu’en sortant il m’arrive souvent d’allumer la lumière our la bête raison que le geste d’actionner l’interrupteur est très fortement motivé à la suite de très nombreux « t’as encore laissé la lumière allumée! »

    Bon, j’ai fini par prendre conscience de la raison pour laquelle je n’éteignais pas toujours la lumière en sortant (c.a.d. de la raison pour laquelle je l’allumais en sortant) et c’est mainteneant devenu automatique: avant de sortir je vérifie que j’ai vraiment allumé en entrant avant d’actioner l’interrupeur…

    Cet exemple pour suggerer que c’est chez les auteurs d’AlphaGo (et chez l’auteur d’ANELLA ) plutôt que dans la machine à laquelle leurs efforts ont abouti que l’intelligence se manifeste le plus clairement.

    1. Ce que votre exemple montre me semble-t-il, ce sont les interférences que votre conscience parvient à provoquer dans le fonctionnement de votre corps. C’est tout l’art de l’archer zen d’éliminer ces interférences : « Cessez d’essayer de « bien tirer » avec votre tête, laissez votre corps tirer ».

      Faites l’expérience suivante : déboulez des escaliers en tentant d’améliorer votre performance en vous concentrant bien sur chaque marche. (Mettez de préférence un matelas en bas pour vous accueillir !).

      1. « Ce que votre exemple montre me semble-t-il, ce sont les interférences que votre conscience parvient à provoquer dans le fonctionnement de votre corps. C’est tout l’art de l’archer zen d’éliminer ces interférences : « Cessez d’essayer de « bien tirer » avec votre tête, laissez votre corps tirer ». »

        L’exemple de l’archer en mode zen n’est pas approprié dans ce cas précis. Car concernant l’archer, il ne s’agit en aucune façon d’éliminer les interférences de la conscience, mais bien plutôt de débrancher le mental, qui est une des facultés de la conscience, et ce pour être au plus près de la conscience du corps et de son environnement. C’est le mental qui crée des « interférences » certainement pas la conscience et encore moins la conscience du corps. De fait, il s’agit d’un changement d’état de conscience. La respiration permet ce lâcher–prise pour revenir aux sensations et installer cet état de détente, impossible à incarner pour une IA désincarnée et sans conscience corporelle biologique qui est le propre du règne animal. La modélisation permet une simulation d’états, mais ceux-ci resteront toujours quoi qu’il en soit, par ce qu’ils sont décorrélés d’un corps biologique, totalement désincarnés. Ni plus, ni moins. Et ça fait une énorme différence. L’IA nous rendra certainement de grands services et c’est déjà le cas. Mais elle restera dépendante de ses programmations et simulations désincarnées. Et c’est bien ainsi.

        https://www.doctissimo.fr/html/psychologie/dossiers/hyperactivite/13371-hyperactivite-ondes-alpha.htm

      2. « Ah oui ? Soyez gentil de nous communiquer la liste des facultés de la conscience. »

        PS : gentille, je suis une femme !

      3. Dundee est une femme !

        Et nous on est là à se culpabiliser à se dire : « Pourquoi les femmes nous snobent comme ça sur le Blog de PJ ? », et un jour on découvre accidentellement que derrière des pseudos comme « Matamore » ou « Pas de quartier », ce sont des femmes qui sont là !

      4. « Je crains que vous confondez jouir et se concentrer. »

        Rien à voir. Vous vous méprenez totalement. Respirer pour se détendre et être au maximum détendu et concentré, c’est ce que font tout aussi bien les aïkidokas que les archers « zen » ou les escrimeurs etc…ou m^me tous les sportifs en général . C’est le B.A BA ! RESPIRER : d’ailleurs c’est également ce qu’on recommande à une femme au moment d’accoucher, à raison, question jouissance et partie de plaisir, il y a mieux !

        « La respiration : respirer est un des meilleurs outils pour débrancher le mental et revenir aux sensations. Il suffit de porter son attention sur l’air au bord de ses narines, et sur le va-et-vient entre ces dernières et la cage thoracique, ou le ventre. L’astuce : revenir au centre au lieu d’être happé par l’extérieur et sa frénésie. »
        https://www.doctissimo.fr/html/psychologie/dossiers/hyperactivite/13371-hyperactivite-ondes-alpha.htm

      5. « « Matamore » ou « Pas de quartier », »

        connais pas, navrée de vous décevoir c’est Dundee femme et pas maso !

      6. Ah oui je fais du yoga depuis sept ans cinq heures par jour, mon professeur m’a nommé yogi et guerrier Du souffle et vous allez m’apprendre par Doctissimo comment respirer.
        Merci 😀
        Je vous assure que les moines Shaolin ne sont pas tellement relâchés quand ils cassent des cailloux avec leur tête.

      7. « Ah oui je fais du yoga depuis sept ans cinq heures par jour, mon professeur m’a nommé yogi et guerrier Du souffle et vous allez m’apprendre par Doctissimo comment respirer. Merci
        Je vous assure que les moines Shaolin ne sont pas tellement relâchés quand ils cassent des cailloux avec leur tête. »

        Grand bien vous fasse. Cela dit vous vous méprenez encore : je n’ai absolument pas dans l’idée et encore moins l’ envie de vous apprendre quoi que ce soit, et à raison, car le Yoga no thanks. Quant aux moines Shaolin, j’espère pour eux que leur apprentissage leur confère une utilité voire une joie et une destinée plus enviable et plus épanouissante que celle d’une bête de foire. Cela dit, votre affirmation relative à leurs pratiques n’engage que vous. Et je ne la valide pas. Bonne continuation, et, bonne respiration.

    2. Je pense qu’il doit faire référence aux expériences de Libet qui tendent à prouver que le libre arbitre n’existe pas , mais dans ce cas il y a déja une intelligence supérieure qui est à l’oeuvre et tout ce débat sur l ‘intelligence artificielle est dérisoire et inutile

  8. Bonjour,

    Paul, je ne comprends pas votre raisonnement à propos de la conscience. quand vous dites que la décision est prise bien avant de parvenir à la conscience, cela veut simplement dire qu’elle est prise de façon inconsciente, ou si on veut « dans » l’inconscient, mais cela n’implique pas que la conscience n’existe pas.

    D’autre part il ne faut pas confondre « conscience de soi » et conscience comme siège de décision (le second sens serait peut-être plus proche du sens des psychanalystes). Et si il y a pierre d’achoppement entre l’IA et la conscience, c’est dans le premier sens : nous manquons de manip attestant que les IA peuvent avoir une conscience de soi. Mais sinon, que les IA aient une conscience dans le deuxième sens, ça ne fait aucun doute: c’est par définition leur siège de décision.

    Est-ce qu’une IA est capable de penser « Je suis moi, je vois le monde depuis l’intérieur de moi », comme nous le faisons nous? Nous n’avons même pas cette preuve à propos des animaux. Et quant aux êtres humains nous ne l’avons pas non plus, évidemment car c’est éminemment subjectif, tout ce que nous avons ce sont des convergences de vues, de sens, de discours.
    Une preuve objective que tous les êtres humains soient doués de « conscience de soi », serait une preuve liée à la _nature de l’homme_ , et non les résultats d’expériences diverses.

  9. Ce qu’il me semble manquer encore à une IA, même avec ANELLA, par rapport à un être vivant :

    – un système de récompense et de punition : pouvoir danser de joie et souffrir comme un damné (et tous les états intermédiaires) !
    – à partir de là, la motivation et la capacité de se choisir des objectifs personnels.

      1. Il me semble pourtant que HAL est dans un état voisin de ça quand il se fait débrancher dans le « 2001 » de Kubrick.

        Ceci dit, je ne trouve pas vos boutades suffisantes pour répondre aux remarques portant sur l’autonomie éventuelle d’une IA.

      2. Comme j’ai déjà écrit des dizaines de pages, voire des centaines, à ce sujet, il m’arrive à l’occasion de boutader dans mes échanges avec ceux qui ne sont pas au courant ou feignent de ne pas l’être.

  10. Rejoignant les judicieux questionnement que pose naroic 10 février 2020 à 13 h 00 min , faut-il s’inquiéter que les plus technocrates des êtres humains aux capacités de « sur-doués », du moins, les moins empathiques de ceux ci, puissent bientôt rivaliser en terme comportemental, cognitif… (mis en situation ordinaire – conversation téléphonique, ou via les « réseaux sociaux », avec un inconnu sur « la pluie et le beau temps » par exemple, échanges entre client.e.s et vendeur.e.s, fournisseur.e.s etc) avec la plus évoluée des IA, sans avoir besoin, pour le moment, « d’enveloppe charnelle » (voire les algorithmes capables de vous faire croire à un discours d’Obama, qu’il n’a jamais tenu)… ?

    Les hypers-sensibles/émotifs, bien que la sensibilité et l’émotivité, exacerbée, n’enleve rien à leur intelligence, ont-ils alors du soucie à ce faire, dans un monde « augmenté » par l’hyper-connectivité, « virtualisé » sous certains rapports à autrui, et à son individualité, à l’individualisme, comme à sa « représentation » du soi dans une « représentativité » d’un vivre ensemble, intérêt général, complexifié… un »nouveau monde » autant aseptisé « d’émotions authentiques », que bouleversé, inquiété, par les interférences, ingérences des « fausses nouvelles », théories du complot… ? Seront-ils catalogués, dangereux « radicaux », « extrémistes », des-lors que leurs inter-réactions avec les technocrates… ou l’IA… se risquera à atteindre certains « critères psychiatriques » de la « démesure », du manque de sang froid, de nuance, de tempérance… ?

    1. Mais? Mais!
      Pourtant, j’avais cru comprendre que l’inclusivité (orthographiquement novlanguaise s’entend), c’était fini.
      Finis. Rapé. Terminaté.
      Ô Erreurs. Ô illusions.
      Ô déception. Oui, déçu, que je suis. Profondément, même.
      Je dirais que ma dignité en est sévèrement affectée. Une violence extraordinaire.
      Je sais, ceci dit pour votre défense, que je n’avais qu’à pas lire. Mais la tentation de l’impossible, vous connaissez sans doute…

      Notez qu’à mon humble avis, vous avez bien fait d’évoquer ‘la représentation de soi’, même si c’est pour malmener la mienne sans ménagement. En effet que serait l’IA sans une ‘représentation de soi’ à la hauteur? Evoquons même le pire d’une ‘représentation de soi’ portée à son nadir: l’IA est-elle capable de se suicider? Ça la rendrait plus humaine et je me sentirais moins seul.

      De plus, il me semble normal et bien à sa place d’évoquer, ne serait-ce qu’incidemment la question fondamentale, vu le sujet, qui est ‘les théories du complot’. Je dois dire, mais ce n’était sans doute pas votre but, que je me sens particulièrement visé.

      En conclusion, je retrouve avec plaisir tout ce qui fait le charme de vos communications. Charme certain, si on se livre à l’exercice périlleux de faire abstraction de l’inclusivité (orthographiquement novlanguaise s’entend). Cependant je note l’absence de notions telles que ‘Ubérisation’, impôts ( fondamental, ça!), des laissés pour compte du RSA et d’autres trucs plus affinés dépassant mes capacités de compréhension. Et c’est pas faute d’essayer, croyez-moi.

      1. Merci de m’offrir l’opportunité de démontrer que même le plus zélé des « technocrates » (ici au sens de l’expression écrite et ses règles de grammaires, d’orthographes tellement figées, qu’il est inversé la hiérarchisation de la valeur du mot « novlangue » – qui habituellement désigne l’imposition verticalisée de l’usage du langage, des éléments de langage, comme par exemple le « nihilisme totalitaire » de la « répression policière » – pour discréditer le propos d’une opposition) comme pourrait en faire autant la plus « sensible » des IA… peuvent être « hyper-suceptibles » (pour trois mots « disgracieux » seulement, dans deux petites questions vous épargnant le développement plus complexe d’intrications impliquant ce que vous nommez  » laissés pour compte du RSA… » ) quand il s’agit d’ébranler la « programmation » des fondamentaux de leur dogme, du pragmatisme de la finalité de leur inter-réaction, ici…

  11. Le décalage temporel existant entre le fait de poser l’acte (premier) et sa prise de conscience (ultérieure) est une facilité de l’apprentissage. Grâce à cet effet Libet, dont l’origine est purement physiologique, l’enfant ou l’adulte peut ‘parcourir’ son environnement et explorer la cascade des possibles et des impossibles (ou des résultats/conséquences positifs ou négatifs). C’est une méthode d’expérimentation par ‘essai et erreur’, comme une autre mais ‘intégrée’.
    Si Paul a formalisé ce processus par logiciel, il n’a nul besoin d’un déclencheur chez l’humain en phase d’ apprentissage. Car il est inscrit dans notre physiologie.
    Encore une croyance qui tombe…

    Cependant, il manque un ‘impétus’ à ces actions. Peut-être est-ce tout simplement parce que le système neuro-moteur existe et qu’il existe essentiellement par ses actions. Cela concerne aussi bien les muscles longs que ceux qui actionnent les cordes vocales. Ou la vue. On sait en effet qu’un chat maintenu à l’obscurité quelques mois après sa naissance est quasi-aveugle. (En fait il retrouve une vue, mais atténuée, en excitant des ‘liaisons’ au cerveau autres que celles du nerf optique, resté atrophié). Il me semble que cet exemple peut être généralisé en ce qui concerne nos moyens perceptifs et moteurs.

  12. Ce qui est dur, c’est qu’on a tous du apprendre à « gérer soi-même » (notre soin-de-soi dirait Foucault ?), et donc à théoriser ses sensations physiques, physiologiques, ses « fonctions mentales » (« je ne peux me concentrer à lire qu’en me gratouillant le menton »), « concentration », « déprise », etc. tout ce qui rempli les livres des étagères « accomplissement personnel », pour être un peu caustique, sinon basique.

    Passer à des représentations où l’on se passe à 95% de tout cela n’est pas mince affaire. Sans que pour autant on soit empêcher de décrire les enchainement « cause à effet » les plus fréquents. Mais ceux-ci ont lieu de façon un peu stochastiques. Un attracteur se défait (sa déprise à lui) dans les neurones, le signal ou l’énergie résultant change de configuration jusqu’à se faire chopper par l’attracteur « du coin », celui préparé par l’histoire antérieure, dont une partie est immédiate (la prochaine marche de l’escalier qu’on dévale, le goût du café anticipé avant de méditer au déplacement de la tour sur l’échiquier, …) et l’autre « imprimée » plus on moins forts aux temps antérieurs (réflexe de l’interrupteur, ne pas oublier mon badge que je fixe le vendredi soir à ma besace pour ne pas l’oublier lundi matin, autres apprentissages du cervelet, qui a droit lui aussi à des cartes « attracteurs » même faible…).
    Cette anarchie douce et intelligente des attracteurs n’est pas la seule du genre. Les gènes ont une telle anarchie :
    voir ici
    https://www.lemonde.fr/blog/huet/2020/01/23/lanarchie-des-genes-la-preuve-du-poulet/
    Et cela est amplement étayé de façon quasi symphonique par l’ouvrage « Tous Entrelacés » d’Eric Bapteste (Ed Belin de mémoire). Les organites genre mitochondries sont des ex-virus ou microbes ou machin-à-ARN (archées ?,…), qui se sont restabilisés dans un mode « assujetti » dans une cellule après avoir fonctionné à l’extérieur en symbiose par exemple.

    Une partie de l’IA gagnerait à exploiter, sans doute, cette image des attracteurs un peu anarchiques. Ceux qui sont déterministes ont souvent trop facilement planté (comme les premières croyances sur le perceptron : un feedback de trop, et hop les minima secondaires sont des pièges). Dame nature a semble-t-il, réussi son coup de cette façon là. Si l’IA nous survit, c’est parce qu’on lui aura conféré cette douce anarchie. C’est une bonne raison de faire éclater tout ce qui est GAFAMO-hégémonique, là où le monde de linux avait des attracteurs anarchiquement doux. Et si je veux être cru et être logique, je ne dois surtout pas forcer le trait, mais le laisser se rendre attirant.

  13. Cette histoire d’intelligence artificielle m’a toujours laissé un peu perplexe. Pour moi, un ordinateur ou un robot n’est pas intelligent et ne le sera jamais car ce sera toujours qu’une machine juste capable de lire des lignes de code, rien de plus. Quant à la conscience, c’est autre chose et la machine ne peut pas l’éprouver. Imagine-t-on une machine avoir conscience d’elle-même et éprouver un intérêt pour son environnement et pour les autres êtres qui l’entourent ?

    1. Pour moi, un esclave n’est pas intelligent et ne le sera jamais car ce sera toujours qu’une machine juste capable de récolter du coton dans un champ, rien de plus.

      Imagine-t-on un esclave avoir conscience de lui-même et éprouver un intérêt pour son environnement et pour les autres êtres qui l’entourent ?

      Harry E. Moore, propriétaire d’une plantation

    2. Imagine- t-on une succession d’agencement de chaînes carbonées finir avec le temps par permettre l’émergence d’une forme de conscience ? Sérieux ? Vous y croyez à un truc pareil vous ? Du délire hein ? Bah euh, oui en fait ça marche avec n’importe quoi autant dis donc…

      Alors moi je vous concède en revanche une chose, je ne sais pas trop quoi mettre dans la définition de conscience je vous l’avoue.

  14. Je découvre cette discussion et j’aimerai réagir. Je ne connais le domaine que par oui-dire mais quelques problèmes me semblent éludés.
    Dans l’état actuel des connaissances, faire un un parallèle entre l’intelligence humaine et l’intelligence artificielle – ce que l’on fait plus ou moins implicitement – n’a pas grand sens pour plusieurs raisons :
    1 : La séparation logiciel matériel (Turing) est fondamentale chez les machines. Ce n’est pas du tout le cas chez l’homme. On le voit facilement quand on sait que le comportement d’une cellule cancéreuse est loin d’être entièrement détérminé par son code génétique. Ce qui explique le relatif échec des thérapies géniques. Une machine est un assemblage complexe de composants simples. Tandis qu’un organisme vivant est un assemblage complexe d’éléments eux mêmes complexes. Il me semble que cette non séparation logiciel /matériel explique une certaine stabilité dans les évolutions. Il n’est pas du tout certain qu’une machine présenterait une même stabilité dans l’évolution.

    2 : La mise en avant de la corrélation dans les techniques d’apprentissage pose aussi problème. Calude et Longo ont montré qu’à partir d’un certain nombre de données prise au hasard, on pouvait y trouver toutes les corrélations que l’on souhaitait. Ce nombre est de l’ordre des masses de données actuellement manipulées. Ce résultat jette un doute sur l’utilisation de le corrélation par rapport part exemple à la causalité.

    3 : Les spécialistes de la sécurité ont des doutes sur les possibilités pour une machine d’être réellement autonome à cause des problèmes de sécurité .

    Bien à vous.

  15. Du point de vue physiologique, le cerveau d’un être humain prodigieusement intelligent n’est guère différent de celui du crétin de bas étage ou de celui du pire dictateur.
    Est-il imaginable qu’une quelconque I.A. puisse un jour dériver vers un comportement préjudiciable à l’humain ou se comporter de manière moins ‘ordonnée’, comme cela peut apparaître chez l’humain à la suite d’atteintes neurodégénératives ?

  16. Il est évident pour moi que puisque la conscience existe chez l’humain, elle peut être reproduite en autre chose que l’humain (*).

    Néanmoins, quand vous dites :

    > Quant à la conscience, j’ai déjà dit ce que j’en pensais : « Même nous, humains, n’en avons pas
    > vraiment besoin : notre corps prend en général les bonnes décisions, avant même de nous avoir
    > consultés ! »

    C’est excessif. L’expérience de Libet nous invite à penser que la conscience ne précède pas l’acte dont on a conscience. Elle ne dit pas que la conscience est déconnectée des actes pour autant.
    Alors certes, on peut exclure la conscience du processus de décision de l’acte que l’on vient de prendre et dont on prend conscience, mais rien indique qu’on peut l’exclure du processus de la décision de l’acte que l’on prendra inconsciemment dans le futur (**).

    A vrai dire, pour parler du libre arbitre, puisque c’est le sujet, je dirai que si le présent nous est dicté, tous les futurs peuvent être écrits. Il vaut mieux le savoir si on ne veut pas qu’un seul s’impose de lui-même.

    (*) : Pour ce qui est d’un niveau de conscience aussi élevé que celui de l’humain, il faudrait des avancées technologiques extraordinaires, il me semble.
    (**) :Quitte à ce qu’en conscience, on y adjoint un minimum de réflexion et de travail sur soi.

  17. La Machine à l’image de notre conscience collective.

    Si le cul-de-sac dans lequel s’inscrivent nos décisions inconscientes et leurs résultats sous forme d’affects chez nous et chez les autres humains, alors peut-être que la science et la technique en sont les incarnations que nous inscrivons dans la Nature.

  18. Quant à la conscience, j’ai déjà dit ce que j’en pensais : « Même nous, humains, n’en avons pas vraiment besoin : notre corps prend en général les bonnes décisions, avant même de nous avoir consultés ! »

    L’état actuel du monde démontre si bien que vous avez raison que je ne vois pas comment on pourrait remettre en cause une telle assertion.

  19. Bonjour,

    Petites questions :

    Si on entraîne une IA à apprendre un langage humain (le français, par exemple), à faire des associations entre mots français, des structures de phrases françaises, alors comme nous, va-t-elle « penser en français » ?
    Avec des mots bizarrement féminins ou masculins, avec toutes nos expressions illogiques ou scientifiquement fausses ou approximatives (type « les plumes sont plus légères que le plomb »).
    Son diagramme de connexions va receler d’erreurs de logique, de contradictions.
    S’en sortira-t-elle avec un esprit bancal ou considérera-t-elle que ses concepteurs sont vraiment des nazes ?

    En plus, on lui forme un caractère de français.
    Alors là je dis : est-ce bien raisonnable !? 😉 )

    Il me semble avoir lu sur Quora ou ailleurs un témoignage que je n’arrive pas retrouver, d’une femme sourde de naissance, qui parvient évidemment à parfaitement raisonner, mais sans faire résonner les mots à l’intérieur de sa tête, donc sans mots « vocaux », mais plutôt des mots « visuels » (les gestes, les objets).

    Comment fait/fera/ferait une IA ?
    Peut-être cette question est sans objet.

    Les mots qui résonnent dans nos têtes ne sont, si j’ai bien compris, que le retour conscient de ce qui a été décidé avant… par moi ? c’est un peu terrifiant si l’on y songe…

    A bien y réfléchir, lors d’une tâche « complexe » comme celle d’écrire ce commentaire ou résoudre un problème de physique ou de maths, la solution est trouvée SANS ma conscience. Cette dernière ne fait que traduire en langage et transmettre ce qui remonte à la surface… Mais sait-on vraiment ce qui se passe au fond ?

    Deux IA qui communiquent entre elles pourraient-elles se passer de langage et ne communiquer que par… par quoi ? transmettre directement les infos « du fond » ?

    1. L’IA fait partie intégrante de l’industrie, de l’aéronautique et du programme Scaf, des moyens de combat travaillant en réseau et donc du futur avion chasseur franco-allemand.
      https://www.20minutes.fr/planete/2542439-20190618-aeronautique-scaf-programme-europeen-plus-ambitieux-matiere-defense

      Mais la chose ne fait pas consensus outre-Rhin.
      https://www.latribune.fr/entreprises-finance/industrie/aeronautique-defense/scaf-un-vote-du-bundestag-en-trompe-l-oeil-839577.html

  20. Bonjour à tous,

    Très intéressante cette dernière remarque de Paul Jorion sur la conscience…
    Elle ne serait donc pas vraiment utile à l’homme selon lui…
    Pas vraiment? Mais serait-elle vraiment inutile?
    Voici ce que j’en dirai pour ma part :
    La conscience n’est jamais inutile, ni pour celui qui la combat puisqu’il lui faut la haïr,
    Ni pour celui qui l’entends et s’en défie,
    Ni pour celui qui l’écoute et s’en inspire.
    Car de tous trois, elle guide les pas.
    Et peu importe quelle bénéfice lui est reconnu.
    La conscience ne saurait être rien
    Que pour celui qui en serait totalement dépourvu.
    Et si celui ci existait, il attirerait sur lui,
    Tout autant de pitié que de défiance.
    Et celui qui se vanterait d’une telle infirmité,
    En apporterait de cette façon, preuve d’existence.
    Je comprend la colère que suscite chez ceux qui font usage de certitudes,
    Ce mot de « conscience »…
    Une dangereuse abstraction qui suffit à ébranler
    Tant de savoirs fragiles, tant de certitudes partagées?
    Alors donnons au moins au mot « conscience »,
    Le contenu que chacun entend lui donner.
    On jugera ensuite beaucoup mieux de son utilité.
    Eric.

    A Paul: Que peut donc représenter cette « conscience » à vos yeux, pour lui dénier ainsi toute utilité?

    1. « Que peut donc représenter cette « conscience » à vos yeux, pour lui dénier ainsi toute utilité ? »

      C’est ce qu’on appelle un épiphénomène : quelque chose qui apparaît en plus, comme un effet dérivé.

      Wikipédia : « Un épiphénomène désigne ce qui se surajoute à un phénomène sans exercer sur lui aucune influence ».

  21. Cher Paul Jorion.

    Je vois dans vos propos tant de commisération envers notre conscience d’êtres humains,
    Bien innocente, puisque si négligeable, si impuissante …
    (Pour « commisération » je vous épargnerai la définition wiki.)

    Mais enfin quelle injuste sévérité envers un si puissant « épiphénomène »!
    Celui-là même, qui vous poussa hier à avertir d’une crise prochaine vos semblables
    Celui-là toujours, qui pousse à vous ceux qui s’inquiètent,
    Sur la pertinence de leur propre conscience, en légitime émoi!
    Alors quel est ce désenchantement qui croît ici chaque jour?
    Un soupçon d’impuissance à tenter de les éveiller toutes?
    A moins que ne vienne, par lassitude de les craindre,
    Seulement l’envie de hurler un peu avec les loups,
    Avec l’espoir d’en mieux parer les crocs?
    Pourtant ici même, de loup je n’en vois aucun…
    L’homme ne saurait donner à ses créations
    Que ce qu’il possède en lui-même, en matière de vertu.
    Il ne pourra espérer de production plus réussie que lui-même
    Qu’au risque de faire bien pire, en matière de vice!
    Alors, appelez cela comme vous voudrez,
    Conscience, conviction, foi, morale,
    Ethique ou même « épiphénomène »!
    Il nous faudra tous faire, chacun, avec ce « très petit peu » !
    Puisque nous sommes incapables de nous unir…
    Et puisqu’au fond, c’est tout ce que nous avons à partager :
    Un « épiphénomène », une commune impuissance…
    Alors autant la garder pour soi, aussi imparfaite soit-elle,
    Durcissons en la pointe à la flamme, affûtons encore…
    Les difficultés des humains tiennent probablement
    A l’absence de tout prédateur crédible.
    Dans la nature, une telle carence d’ennemi
    Pour une espèce animale qui prolifère,
    C’est une disparition programmée à court terme!
    Il n’en faudrait donc pas plus pour que les humains s’entre-tuent encore!
    Et on le verra, peut-être, comme précédemment,
    Se sera encore une fois avec une grande conscience!
    Certes une conscience un peu animale, mais bon…
    La mienne est comme un vieux chien fidèle et pacifique,
    La vôtre aussi, et même si la rage est contagieuse,
    Ne l’abattez surtout pas avant les premiers symptomes.
    On peut sans doute en faire encore quelque chose…
    Alors ma foi, au moins caressons la un peu, cette conscience.
    Qu’a donc jeté David à Goliath avec sa fronde?
    Rien d’autre qu’un « épiphénomène »!
    Bon, il savait viser, c’est certain…
    Mais la cible était énorme!
    Et celle d’aujourd’hui l’est tellement plus!
    Quelques minuscules « épiphénomènes » devraient suffire.
    Seulement besoin d’une bonne fronde…

    Eric.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.