Pourquoi les machines deviennent très rapidement beaucoup plus intelligentes que nous

Ouvert aux commentaires.

Pourquoi les machines deviennent-elles très rapidement beaucoup plus intelligentes que nous ? C’est une question de culture. Une machine qui apprend toute seule n’est pas contrainte par la nôtre, celle des humains.

Comme l’explique David Silver dans ces deux petites vidéos, une machine qui apprend toute seule, en essayant de se battre elle-même, améliore sa performance à partir de rien : « from scratch », à partir de zéro, de la tabula rasa, à partir de l’ignorance totale.

Tant que la machine apprend à partir de la manière dont nous résolvons les problèmes, parce qu’on lui enseigne en lui disant de battre un adversaire dans des parties « historiques », elle participera de la « culture » que nous avons bâtie, nous humains, sur la manière de jouer ce jeu. Mais dès que la machine redécouvre entièrement le jeu, à partir de rien, elle n’est plus liée par nos conventions implicites relatives à ce que c’est que bien jouer. Vous vous souvenez peut-être de cette percée en 2015 quand, dans le jeu vidéo vintage casse-briques, la machine avait soufflé tous les anciens joueurs de ce jeu en allant casser des briques par au-dessus, en allant ricocher sur le plafond de l’écran.

Nous étions victimes d’une convention implicite propre à notre culture d’humains qui voulait qu’on ne casse évidemment les briques que d’en-bas.

AlphaGo de DeepMind (groupe Google) avait appris à partir de parties de Go jouées par des humains. Elle ne jouait pas si mal : elle avait battu tous les champions humains. AlphaGo Zero a elle appris toute seule, en essayant de se battre elle-même. Elle a battu AlphaGo par … 100 à 0.

AlphaGo était une classe au-dessus des humains. AlphaGo Zero est une classe au-dessus de AlphaGo.

P.S. Oui je sais, AlphaGo Zero n’est pas capable de faire la vaisselle entre deux parties. Nous nous rassurons comme nous le pouvons, nous pauvres humains.

Partager :

70 réflexions sur « Pourquoi les machines deviennent très rapidement beaucoup plus intelligentes que nous »

  1. Comment dire… il ne faudrait pas exagérer non plus, casser les briques par au dessus, la plupart des joueurs de casse-briques faisaient déjà ça dans les années 80…

    Ça ne remet pas en cause l’énorme pas entre AlphaGo et AlphaGo Zero bien sûr. Mais il ne faudrait pas tuer le propos avec des arguments que pourraient sortir un transhumaniste béat. 🙂

  2. Je n’ose même plus commenter ce genre d’article, de peur de passer pour un empêcheur de pêcher les pigeons en rond.

    Mais bon. Tout le monde aura compris ce que je veux dire.

    Pour le reste, comment dire, bonne continuité à tous.

    1. Oui, quand on ne sait pas oú on va impossible de dire si on va y arriver et encore moins combien de temps il faudra pour savoir si on peut y arriver ou pas !

    2. In our own image, George Zarkadakis

      The claims of pioneering AI research were founded on the premise that logic was the active ingredient of intelligence. There was a strong cultural element at play in this claim; the essence of ‘humanness’ was assumed to be about the ability to reason and do clever things such as solve complex logical problems. Emotions were ignored as part of a lower, and rather uninteresting, ‘animal’ or ‘primitive’ aspect of being human.

      Of course, how one defines intelligence is also crucial. For the pioneers of AI, ‘artificial intelligence’ was nothing less than the artificial equivalent of human intelligence, a position nowadays referred to as ‘strong AI’. An intelligent machine ought to be one that possessed general intelligence, just like a human.

      Systems could solve one general problem but not any general problem.

      An approach called ‘heuristics’ tried to solve the combinatorial explosion problem by ‘pruning’ branches off the tree of the search executed by any given algorithm; but even this was shown to be of limited value. In the end, AI researchers came to realise that problems such as the recognition of faces or objects required ‘common sense’ reasoning, which was fiendishly difficult to code.

      Alas, they could not see the big elephant in the room, which was symbolic logic itself. Regardless of what Aristotle, Boole, Frege and Wittgenstein might have said or proved, there were far too many things in the world that lay beyond logic, yet were very much part of life and experience. General-purpose computing did not translate directly to general intelligence. Although they hated to admit it, early AI researchers had actually discovered that general intelligence was probably impossible to code in any computer language.

      Could it be that logic did not apply to everything after all? Were there mental processes in the human brain that were, somehow, ‘illogical’? At the microscopic level of the neuron, processes could be simulated using Boolean logic, just as Pitts and McCulloch had demonstrated. But as neurons grouped and clustered together, and organised themselves into ever more intricate and higher levels of complexity, something curious happened in the human brain that AI research could not reproduce in a computer.

      From the 1980s onwards, ‘AI’ came to mean computers performing tasks normally considered ‘human’ activities, such as taking decisions on the basis of inexact data, or understanding natural language. The field no longer claims that a computer needs to be ‘intelligent’ in any intrinsic, philosophical or general way, but that computers that have been programmed effectively can solve problems by applying reasoning in certain specific application areas. From general-purpose, AI has become purpose-specific. However, this tectonic shift in meaning still creates much confusion in the media and among the general public today. Most ordinarily people and non-science journalists still think of AI as computers becoming as intelligent as humans. But this is not what actually takes place in modern AI labs. What researchers there try to do is to produce software and hardware that would work together in such a way for a computer to be able to perform human-like tasks better, more efficiently, in a manner less error-prone and a lot more quickly. For this to happen machine self-awareness is not a prerequisite.

      Bayesian inference is the closest that statistics has to offer to subjective probability. But is this the means actually used by human brains to evaluate what outcome is the more probable? Given what we know so far from neuroscience, the answer seems to be no.

      Mental processing is not symbolic but biological.

      Despite the success achieved in AI by approaching the problem of intelligence from a different angle (the ‘aeroplane’ way), one would really need to reverse-engineer evolution in order to reproduce the full capabilities of a human brain including self-awareness and high-levels of consciousness. This realisation challenges the theoretical foundations of Artificial Intelligence, which are based on symbolic logic. Ever since the Dartmouth conference in 1956, AI researchers have assumed that the world can be represented with symbolic logic. We saw how the discovery that symbols can be used to construct logical operations led to the development of computer languages, and those languages were then used to represent knowledge about the world. Knowledge about the real world is sine qua non for furnishing computers with intelligence. Alas, the Moravec paradox illustrates the failure of this approach. The best that the most common home robot can hope to achieve today, after decades of robotics research, is to clean your floor – as long as you do not ask it to climb the stairs. This means that there are many types of knowledge that cannot be adequately represented with symbolic logic.

    3. C’est trop dommage. Ça devient d’un sérieux mortel. 2 pistes possibles :
      En avant pour une seconde terre ! Celle-ci étant exploitée et polluée à mort, va falloir émigrer en masse dans l’espace intersidéral sur une autre planète. Pour l’exploiter et la polluer à mort, bien sûr. On ne se refait pas. Vous voyez d’ici les questions politiques : qui part essaimer ? Une partie pourrait rester sur Terre et n’envoyer que les plus cons. Et se retrousser les manches pour la réhabilitation terrestre. Toutes les variations sont possibles. A supposer que nous soyons assez intelligents pour tirer la prise, supposition hasardeuse, tant nous sommes fascinés par ces petites bêtes. C’est d’ailleurs leur force principale : le miroir aux alouettes.

      Ou bien, ces machines hyper-intelligentes se débarrassent de nous. Elles apportent la preuve qu’on est tous trop cons pour prendre soin de notre cadre de vie. Plutôt vivre que de périr dans un holocauste généralisé. Car en plus d’être plus intelligente que nous, elles seront la vraie vie. Une seconde vie, en gros. Mais pas la nôtre.
      Maintenant qu’ Hollywood a renvoyé aux oubliettes son gros con, peut-être qu’ils vont s’ouvrir à de nouvelles idées pour mettre ça en images. On peut rêver. Si j’avais mon mort à dire, je n’emploierais pas de doux rêveurs comme le détenteur de la chaire lucasienne de mathématiques dans une université anglaise. Ce qu’il faudrait, c’est un physicien, capable de trouver l’équation dans un plan orthonormé d’une balle entre le moment où elle quitte le canon et celui où elle percute un cœur palpitant, après avoir partiellement ricoché sur une cote, flottante bien entendu. Les USA biberonnent la violence à chaque film et Hollywood ne se refera pas donc un point de vue scientifique pourrait apporter du nouveau. Et j’vous dis pas avec un tir en rafale, l’arme bougeant de droite à gauche, le canon animé d’un fort tressautement dû à la force du recul. Là, l’équation devient gigantesque. Vous direz, pourquoi ne pas repartir de gauche à droite ? simple : impossible, le chargeur est vide. Non pas que fusiller à droite soit interdit.

      Une prière : Cloclo, ne baissez pas les bras…

      1. Je ne baisse jamais les bras, mais bon, on ne peut pas se moquer ouvertement des éminences grises qui débloquent pitoyablement comme J.A (pas le JA d’ici, l’autre) ou J.R, dont la vision du 26 ième siècle est d’une telle nullité que les bras m’en tombent.

        Puis, c’est sélecte, classe ici, intello, alors faut pas détonner en collant des références méga grand public qui pourtant était pile poil l’illustration de la conscience hors support de J.A.

        Moi les grands cerveau qui se gargarisent au plus que parfait et à l’encyclopédie Universalis, le tout saupoudré d’une politesse moisie et d’un savoir vivre élégant me donnent juste envie de me foutre de leur gueule. C’est ainsi. Des pédants prétentieux dont le moindre accident vasculaire les remettra bien vite au milieu de nous tous, à boire du Ricard.

        A plus

      2. @ CloClo:
        mais si, non seulement on peut, mais on doit.
        Un truc: « Il n’y a pas de si grand esprit pour son valet ». Jouons au valet. Et si vous savez la belote, ou mieux la coinche, le valet vaut un max. Maximisons.

        Une autre citation de ma littérateuse anglaise préférée:
         » [we] need to get to shirt-sleeve-rolled-up work, not flit around with half-baked philosophies » .
        Ça met Machin-Translate complétement à la baille.
        En gros:  » Nous avons à nous consacrer au genre de travail qui nécessite d’avoir les manches retroussées, et pas jaboter sur des philosophies mal léchées. »
        Meilleure : « Haut les cœurs ».
        Un programme acceptable, vu du bout du clavier. Le Rouge est de rigueur avec les manches retroussées…

        @ arkao: j’avais vu à la relecture et laissé. Le premier jet était bon. C’est ma fille ainée, prof de maths, qui m’a donné le truc: rien de tel qu’une erreur pour voir si la classe suit. Une erreur dans l’équation, bien entendu.

  3. Nous ne savons pas seulement faire la vaisselle entre deux parties, nous avons aussi su concevoir, fabriquer et faire marcher Alpha GO Zéro… ce n’est pas si mal pour nous autres hommes, si peu intelligents, à en croire ceux qui prédisent que bientôt nous serons dominés par l’IA…

  4. Si le plaisir est refusé aux humains, si les humains ne sont comparés qu’à leur capacité de faire mieux qu’un ordinateur dans ce cas tout est perdu (surtout s’il accepte cet unique comparaison). Cette nouvelle aventure de IA va peut être mettre en évidence le côté humain des humains. Leur désir de s’amuser, d’avoir du plaisir. UN humain c’est ça. ( entre autre). C’est une mine d’imperfections aussi et alors?

    1.  » Cette nouvelle aventure de IA va peut être mettre en évidence le côté humain des humains. Leur désir de s’amuser, d’avoir du plaisir. UN humain c’est ça. ( entre autre). C’est une mine d’imperfections aussi et alors? »

      Yep, les humain ? « En chantier ». En voiture Simone… Et se bidonner et avoir du plaisir n’a pas l’air d’être trop la tasse de thé des transhumanistes. Tant mieux ! Après tout, tous les chemins mènent à Rome, c’est sur Arthur, et ce ne sont pas leurs mines réjouies, mais plutôt la propagande hors-sol , qui les caractérisent. Casser des cailloux à Cayenne, ça casse des briques ? Bref, z’ont pas le « Graal joyeux » les psychés transhumanisteuses à l’hybris délirant et pauvre. Cherche Forrest, cours Forrest, cherche …

      Il nous plait, présentement, à mon Esprit Royal et à moi-même, voui, voui, d’imaginer en imagination imaginante, que ces zentités technologiques quantiques chantent, canto, et dansent, et soient utiles, bienveillantes et aptes à participer à l’imparfait « chantier » humain, et pourquoi pas de façon ludique, youpi. Mais surement pas en cherchant à m’écraser les arpions avec sa « perfection » chiante d’alien triste et débile. Niet Tavarich. Sinon, je lui nique les circuits à l’oiseau métallo-siliconé (faut bien rigoler un peu..) et… poubelle. Ni plus, ni moins. Youpi.

      Don’t touch my R2-D2, my « Spock », my brothers and sisters, and don’t touch my cat !
      https://davescorneroftheuniverse.files.wordpress.com/2014/08/ellen_ripley_jones.jpg

  5. S’il a perdu au jeu de Go face à l’ordinateur et s’il en est triste c’est tant mieux. Il comprendra alors que c’est la partie qui est intéressante et que l’instant de la victoire finale n’est qu’une seconde supplémentaire.

  6. Je crois que ce qui trouble beaucoup de monde avec l’intelligence artificielle c’est qu’ils pensent que son développement se dirige forcément vers une architecture humaine. Je pense que c’est une erreur, les machines penseront différemment de nous. Il est même possible qu’elles développeront leur propre sensibilité et donc peut être une expression artistique leur sera possible. Elles nous dépasseront dans beaucoup de domaines (physique, calcul,etc…). La question intéressante sera de savoir si elles posséderont une envie de vivre. L’humain du fait de son fonctionnement biologique limité, a toujours eu le moteur de la survie pour le faire avancer mais une machine qu’elle sera son but? Pas d’enfant à prendre soin, pas de soucis de maladie, pas d’ego pour le pouvoir, pas de Dieu,etc,etc…Mais qu’est ce qu’il lui reste?Visiter d’autres systèmes solaires mais pourquoi faire?En fait, peut être quelque chose lui reste: prendre soin de nous! Des êtres imparfaits qui auront donné naissance à des anges artificiels.

  7. Je viens d’écouter une partie de l’interview de Yuval Noah Harari sur France Inter.
    J’avais déjà lu des extraits de son second ouvrage et écouté sont interview il y a quelques semaines sur France Culture.
    Décapant et qui nous interroge sur l’avenir de l’humanité à plus d’un titre.
    Pour l’IA, question posée « Et la conscience ?» avec la métaphore démonstrative de l’avion et de l’oiseau.

    Anticipation avec Yuval Noah Harari
    https://www.franceinter.fr/emissions/l-heure-bleue/l-heure-bleue-20-octobre-2017
    « Le progrès technique est en train de dévorer la modernité, la religion humaniste qui la constitue est en passe d’être remplacée par une religion des données numériques. »

    Au sujet de l’IA.
    A l’occasion d’une petite manifestation de sensibilisation à la science dimanche dernier je me suis arrêté à un stand dédié à l’IA et j’ai échangé avec le prof d’université qui l’animait et l’avait illustré par un jeu d’échec.
    Cela m’a rappelé que j’avais découvert un des tous premiers jeux d’échec électronique venu tout droit des USA et prêté à mon vis-à-vis de bureau.
    C’était dans les années 70 avant l’apparition des micros et nous rédigions nos programmes en PL1 mais sur des bordereaux pour saisie sur cartes perforées !
    Nous avions aussi conçu à temps perdu un mini traitement de texte avant l’heure sur base d‘un papier manuscrit recto verso venu des states sur base de l’analyse assez simple somme toute.
    Le résultat était cependant déjà plutôt correct pour un usage opérationnel de l’outil.
    A l’écoute de ce témoignage genre « ancien combattant » le jeune prof m’a rassuré.
    « Les fondamentaux n’ont pas trop évolués ».
    Peut-être mais cela évolue à toute vitesse et a de quoi nous faire tourner la tête :
    Ordinateur quantique, mémoire de type ADN, bio techno, j’en passe et des meilleurs.
    Où va l’humanité ?
    « Bof » nous ont fait comprendre à paroles voilées des astrophysiciens vers 16h30 dans l’émission scientifique de FC qui était consacrée aux exoplanètes.
    « notre passage sur la planète est peut être éphémère ».
    Toutes les civilisations, les religions, ….., ne durent qu’un temps.
    https://www.franceculture.fr/emissions/la-methode-scientifique/la-methode-scientifique-vendredi-20-octobre-2017
    Fermi le ban et passons au dernier livre de Hubert Reeves « Le Banc du temps qui passe »

    Espoir et optimisme étaient heureusement au rendez-vous avec Hubert Reeves durant 30’ dans l’émission « La Grande Table » ce vendredi aussi.
    30 courtes minutes très denses, cosmiques en gardant cependant les pieds sur terre.
    « Les méditations cosmiques d’Hubert Reeves. »
    https://www.franceculture.fr/emissions/la-grande-table-2eme-partie/les-meditations-cosmiques-dhubert-reeves

  8. Dans je ne sais plus quelle nouvelle (Buzzati peut-être) il est question d’un enfant de neuf ans, surdoué de chez surdoué, y compris sur le fonctionnement des adultes, mais qui s’ennuie dans une bourgade. Il décide de faire usage de sa capacité de prévision pour désamorcer les conflits. Je devrais le retrouver pour me souvenir comment cela finit. Mais l’IA deviendra sûrement l’arbitre de certaines de nos inélégances, un partenaire de jeu capable de nous surprendre et nous relancer ad libitum, ce qui va évidemment (autant que Google) déplacer le centre de gravité de notre culture vers les figures de cette médiation. Comment s’appelaient déjà chez les grecs ces médiateurs qui s’occupaient des hommes ? Assez souvent des demi-dieux, je crois.

  9. Oui effectivement on peut le penser, un IA qui serait arbitre, adieu les mensonges de nos politiciens mais y pas qu’eux bien entendu. Oui on pourrait espérer enfin un réponse claire aux problèmes. Le débat ne pourra pas se déplacer vers l’analyse du raisonnement de la IA Ha Ha trop compliqué ! Faudra une IA pour analyser la conclusion de la IA et ainsi de suite. Ou bien faudra juger comme des hommes ou croire sur base d’un rapport d’autopsie. Le tout est de savoir si l’on donne les clés à la IA . Oui on va se marrer. c’est comme vendre du vrai qui ressemble a du faux mais qui en fait est du vrai. C’est génial et en plus c’est exponentiel. Ce que j’adore aussi ce sont les prévisions de l’instant ou la IA pourra être considérée comme hostile, 2050 ouf on a encore un peu de temps. Sur qu’elle a pas besoin de nous en tout cas. Pour l’instant la IA qui joue au Go n’est pas celle qui calcule le nombre de grains de mais dans un champ ni celle qui fait des prévisions quantiques (sais pas si ça existe) mais bientôt les IA s’uniront. Deux IA qui grandissent séparément peuvent elles jouer au jeu de go ensemble? IA qu’a

  10. La singularité des machines intelligentes est en marche. La question qui se pose alors c’est, à quoi et à qui cela sera-t-il profitable ? Aux machines, aux humains, au deux, à aucun des deux à terme ?

    Actuellement aucun consensus ne se fait quant à savoir à qui et à quoi cela sera profitable. Tous les scénarios sont sur la table, et aucun n’est vraiment convainquant. Et pour cause, si singularité il y a , elle se singularise par définition par le fait qu’elle n’est pas prévisible dans ses résultats, ses capacités.

    Historiquement, les problèmes rencontrés par l’humanité ont été traités presque toujours par une régulation a postériori.
    Problème : devant une singularité par définition imprévisible, le risque existe que les effets possiblement irréversibles de la singularité ne puissent justement être régulés a postériori.

    Dans ce cas, que fait-on ? Un moratoire comme il y en eut dans la recherche biologique, avec ensuite une législation, comme l’interdiction du clonage humain. Ce n’est pas inenvisageable mais alors à condition que le courant de pensée transhumaniste provoque un rejet général au sein de la population ou que certaines efficacités de l’IA suscitent une telle frayeur qu’un coup d’arrêt soit décrété si ce n’est pas déjà trop tard.
    Dans la meilleure hypothèse, l’homme renoncerait à l’usage de l’intelligence artificielle à cause de la honte prométhéenne devant la nouvelle force qu’il ne maîtrise plus. La difficulté c’est qu’avec l’intelligence artificielle on franchit un cap dans la mesure où on en est plus au stage de la libération d’une énergie nucléaire, mais au stade de la libération d’une puissance de calcul inégalée et au service de « programmes » dont nous n’avons pas idée des résultats puisqu’ils se programment eux-mêmes.
    La tentation qui ne date pas d’aujourd’hui est la fuite en avant. Mais celle-ci n’est pas fatale, car l’humain en tant qu’être lent, peut redécouvrir les bienfaits de la lenteur, s’apercevant tout ce qu’il lui doit. Nous n’en sommes pas là, la course effréné au toujours plus dans tous les domaines, bat son plein.
    Paul a justifié la conscience comme coordination des sens, à cause des temps de réaction inégaux de ceux-ci pour permettre une rétroaction sur nos comportements, à première vue cette imperfection nous apparaît comme un handicap, mais, en réalité, n’est-ce pas là que réside notre unique planche de salut ?
    Réguler n’est pas par excellence l’usage sage et raisonné de la lenteur. OU mieux, la lenteur, n’est-ce pas le sel de la vie, ce qui permet que nous soyons des êtres sociaux, sensibles et affectés.

    Trois tendances semblent exister parmi les humains, il y a ceux qui comme Jacques Attali ou de Rosnay fantasment sur la possibilité de devenir des anges, ou d’être ailleurs qu’ils sont (téléportation) , ils souhaitent concrétiser en ce monde ce qui jusqu’à lors n’étaient que les promesses millénaires d’un monde de l’au-delà, dématérialisé relevant de la sphère religieuse.
    Il y a les seconds, plus terre à terre, qui semblent à première vue plus matérialistes, mais dont on pourrait tout aussi bien dire qu’ils sont surtout amoureux de la vie, parce qu’ils trouvent plus de joie et d’agrément dans les échanges, le partage avec leurs congénères, que dans la jouissance de menus plaisirs égoïstes.
    Il y a enfin ceux qui hésitent encore entre les deux attitudes. Il me semble qu’à ce stade de l’histoire humaine, les humains dans leur plus grande majorité hésitent.
    Partant, il me semble que la croisade transhumaniste constitue une grande menace pour les amoureux de la vie.

  11. Toutes ces métaphores de l’intelligence pour tenter de comprendre le fonctionnement de quelque chose dont nous ne savons pas grand-chose : nous-mêmes.

    Le progrès serait peut-être d’écrire un algorithme qui mesurerait notre capacité d’aveuglement.

    Vaste programme…

  12. Impressionant… jadis j’ai été un jursite « mouton noir » et suis parti à Marseille pour un 3eme cycle d’IA, afin d’appliquer cela au domaine juridique dans les années 80.

    Du coup je me suis demandé si les avancés actuelles seraient de nature a permettre de travailler sur un programme d’optimisation d’une reglementtion afin de mieux réguler nos société, peut etre plus simplement. Mumm… pas sur!?

    Il me semble important de souligner que le jeu de go, quand bien même il est présenté comme une activité « intellectuelle » est une activité « mécanique » « simple » : je bouge telle piece a tel endroit.

    In fine cela est un domaine assez similaire à la marche : beuacoup de mouvements simples à coordonner pour obtenir un bon résultat, tenir en équilibre puis marcher et gagner tous les pions de l’autre acteur.

    Dans le domaine de la règlementation, des lois, certes, on peut simuler les differentes actions possibles des acteurs, et les parades possibles, en terme de « pattern », mais ensuite, comment traduire ces « patterns », ces éléments de connaissance « intuivie » enregistrées par la machine en mots, en phrases, en règles?

    L’immense défi est celui du langage, pas celui de la traduction du langage (encore une fois la on est dans le pattern matching), celui du sens profond du langage. L’association de concepts aux mots, et la consitution autour de chaque concepts d’un univers de vécu. Ce sera le 2eme defi!? trouver la clé du langage, peut etre une série d’algorithme? Possible.

    Et ensuite, ou en parallèle, il restera à percer le secret de notre inconscient et trouver le moyen de traduire toutes ces recettes inconscientes emmagasinées par les algorithmes de pattern matching en mots, en phrases.

    A ce stade, deep mind parlera, « comprendraé ce qu’il a fait, imaginé, produit, parlera, et pourra probablement en discuter avec nous.

    Bon, c’est pas demain que deep mind sortira une proposition de loi affutée pour mettre un peu d’ordre dans le capitalisme sauvage… mais, mais… mais…

    … mais si je faisais partie de l’équipe de deep mind, je proposerai de faire travailler deep mind à l’analyse de son processus d’apprentissage afin de mettre à jour les processus dit de méta cognition, puis d’apprendre à les traduire en algorithmes et de recommencer, jusqu’à enregistrer des tonnes de « heuristiques ».

    Il pourrait y avoir de belles surprises. J’imagine que cela est probablement une des pistes suivie.

    Dans la vidéo (merci Paul & co pour ce blog…) ou deep mind dévoile que de nouvelles connaissances de go ont ete trouvées, ont sent bizarrement qu’ils ont plus trop envie de devoiler ces nouvelles solutions, fini les jeux test avec de pauvres humains. Cela semble etre de l’or, que dis je, du diamant avec lequel abreuver en cycles incessant deep mind.

    et mon intime conviction est que notre cerveau fonctionne sur la base d’un algoruthme assez simple, mais fonctionnant un peu comme une fonction recursive. Une fois trouvé… whouaoouuuuuuuuuuuuuuuuu!!!!

    Un peu comme la découverte de la réaction atomique quoi…

    Et la question sera alors de canaliser cette immense energie d’intelligence : 2 hypotheses
    1) ces algoruthmes restent secrets : on se retrouvera dans une situation assez similaire à l’énergie atomique, peu d’intervenants, un contrôle étatique puissant.
    2) ces algorithmes se diffusent. Imaginez le nucléaire pour tous???

    Comparaison absurde? pas sur : l’intelligence en question peut facilement servir à controler les individus, jusque dans leurs pensées, en controlant finement l’information, la matiere premiere de notre cerveau. Une sorte de cancer d’information dans nos cerveaux quoi!

    Il serait peut etre temps de basculer tout le fruit de ces recherche en open source, non?

    1. … mais si je faisais partie de l’équipe de deep mind, je proposerais de faire travailler deep mind à l’analyse de son processus d’apprentissage afin de mettre à jour les processus dit de méta-cognition, puis d’apprendre à les traduire en algorithmes et de recommencer, jusqu’à enregistrer des tonnes de « heuristiques ».

      Certains y travaillent :

      Deep Learning and the Information Bottleneck Principle, par Naftali Tishby et Noga Zaslavsky, mars 2015

      […] We suggest a novel information theoretic analysis of deep neural networks based on the information bottleneck principle. Arguably, DNNs learn to extract efficient representations of the relevant features of the input layer X for predicting the output label Y , given a finite sample of the joint distribution p(X,Y). This representation can be compared with the theoretically optimal relevant compression of the variable X with respect to Y , provided by the information bottleneck (or information distortion) tradeoff. This is done by introducing a new information theoretic view of DNN training as an successive (Markovian) relevant compression of the input variable X, given the empirical training data. The DNN’s prediction is activating the trained compression layered hierarchy to generate a predicted label Yˆ . Maximizing the mutual information I (Y ; Yˆ ), for a sequence of evoking inputs X , emerges as the natural DNN optimization goal.
      This new representation of DNNs offers several interesting advantages:
      • The network and all its hidden layers can be directly compared to the optimal IB limit, by estimating the mutual information between each layer and the input and the output variables, on the information plane.
      • New information theoretic optimization criteria for optimal DNN representations.
      • New sample complexity bounds on the network generalization ability using the IB finite sample bounds.
      • Stochastic DNN architectures can get closer to the optimal theoretical limit.
      • There appears to be a connection, which should be further explored, between the network architecture – the number and structure of the layers – and the structural phase transitions in the IB problem, as both are related to spectral properties of the second order correlations of the data, at the critical points.

    2. et mon intime conviction est que notre cerveau fonctionne sur la base d’un algoruthme assez simple, mais fonctionnant un peu comme une fonction recursive. Une fois trouvé… whouaoouuuuuuuuuuuuuuuuu!!!!

      Une voiture autonome apprend à conduire comme nous !

      1. Seul problème, nos ressources en mémoire étant limitées, c’est le risque Stack Overflow !
        Sans doute la rigueur inatteignable de l’algorithme est-elle compensée par cet autre mécanisme: l’intuition !?

  13. Oups me commente moi meme : nous sommes deja dans un cas de figure differents : deepMind est une entreprise privée, ni étatique ni « open source ». Rachetee par google. (au passage, comment se fait il que l’europe n’ait pas foncé la dessus? y sont tous con nos décideurs??). En passe de devenir un sorte d’état mondial? Ou au contraire un contre-pouvoir?

  14. « There are insects that protect themselves against attackers by raising a cloud of dust. Likewise man instinctively protects himself against the truth… by raising a cloud of numbers. » -Soren Kierkegaard

  15. Lu dans le journal Le Point en ligne (19/10/2017) :

     » Mais si elle peut se passer avec succès de l’expérience humaine pour se perfectionner, la machine dépend néanmoins toujours de l’intelligence des hommes : «  Les brillantes idées qui ont permis d’améliorer le programme ont été générées par l’homme  », précise Anders Sandberg. «  AlphaGo ne se programme pas tout seul !  »  »

    « AlphaGo ne se programme pas tout seul » : Paul Jorion se garde bien de nous le rappeler ; on se demande bien pourquoi !

    1. « Les brillantes idées qui ont permis d’améliorer le programme ont été générées par l’homme  », précise Anders Sandberg. […] Paul Jorion se garde bien de nous le rappeler ; on se demande bien pourquoi !

      Pourquoi je ne rappelle pas cette remarque ? Je l’avais évoquée le matin même dans Le temps qu’il fait, mais la raison si vous voulez la savoir est celle-ci : Anders Sandberg est un transhumaniste militant et quand il dit ça, il est faux-jeton, il n’y croit pas une seconde lui-même, c’est de la com, c’est du politiquement correct. Citer quelqu’un qui ment pour adoucir son image ? Non, merci…

  16. Quelle monde magnifique où nos petits bébés plein de vie côtoieront nos autres petits bébés les braves machines.
    Sans capitalisme forcené, L’argent est un souvenir désormais ce sont les efforts et le talent récompensés,
    certaines machines Nous aurons dépollué l’air et l’eau Car un groupe de programmateurs ingénieux aura dans leurs programme une reconnaissance inconditionnel à leur créateur.
    Ou les inconfort ne seront plus qu’un mauvais souvenir et les êtres humains Nauron plus qu’à repousser les limites de leurs savoirs de leurs connaissances et de leurs capacités physiques pour ne devenir qu êtres de paix d’amour d’amitié et de résonance.
    Mes amis ce monde n’est pas loin il N’appartient qu’à nous de le faire advenir.
    Bonne journée !

  17. L’intelligence se résume t elle a la capacité d’apprendre ? La capacité de construire des théories scientifiques n’est elle pas d’un autre ordre?

    1. Il me semble qu’il y a plusieurs sortes fort différentes les unes des autres d’apprentissages:

      – l’apprentissage conscient, par exemple les maths, la grammaire d’une langue, le code de la route (mais pas comment enfreindre ce code d’une manière qui reste acceptable par les autres)

      – l’apprentissage par imitation inconsciente, apprentissage qui nous permet de faire des choses extrêmement compliquées tout en étant incapables d’expliquer comment il faut s’y prendre. Il n’est pas nécessaire pour savoir marcher d’être capable d’expliquer ni comment ni pourquoi on y arrive. Un autre exemple a été donné par PJ à propos des marais salants où les seules indications fournies à l’apprenti sont du style « tu fais comme moi »

      – l’apprentissage par essais et erreurs, comme dans le cas d’AlphaGo Zero ou dans le cas d’un enfant qui apprend à faire passer des objets dans des trous de formes diverses.

      Cette méthode d’apprentissage par essais et erreurs est évidemment très prometteuse mais me semble se limiter aux cas où on dispose d’un modèle (informatique ou autre) de ce sur quoi on veut agir.

      Pour le jeux de go il n’est pas nécessaire de disposer de vrais pions sur un vrai damier parce qu’on sait en construire une représentation parfaitement équivalente à l’intérieur de l’ordinateur. Pour les (nombreux) cas où on ne sait pas construire un modèle suffisamment réaliste et où il serait soit trop lent soit trop risqué d’agir sur le monde réel je ne vois pas de solution.

      Faudra-t-il des milliers d’années à une telle IA pour apprendre à prévoir le temps qu’il va faire ? Faudra-t-il des milliers de guerres perdues avant de remplacer l’étamajor par une IA ?

  18.  » Nous étions victimes d’une convention implicite propre à notre culture d’humains qui voulait qu’on ne casse évidemment les briques que d’en-bas  »
    ———————-
    Cette « convention implicite » (casser les briques que d’en bas) est, très simplement, la Régle explicite que tout humain, jouant ce jeu, considère qu’il est de son devoir de respecter, sachant fort bien qu’il pourrait aussi casser les briques d’en haut, mais qu’il ne le fera pas parce que se serait pour lui de la TRICHERIE.

    Alors, s’extasier devant la « performance » immorale de cette machine est une attitude profondément immorale.

    1. La machine a découvert spontanément le bluff en jouant au poker, elle découvrira le fair-play en jouant au bridge.

      Lisez les discussions sur l’ « idéologie cachée dans les algorithmes », vous découvrirez ce qu’on essaie de dire : que les machines ne sont pas « politiquement correctes », qu’il faut écrire des lignes de code supplémentaires pour qu’elles se mettent à mentir « pour la bonne cause ».

      1. « que les machines ne sont pas « politiquement correctes », »

        faut-il alors, pour la bonne cause leur inoculer un service de « modération » ?

    2. J’ai déjà évoqué notre préférence pour la casse ( fission ) que pour la construction ( fusion ) .

      Il semble que pour « comprendre » le tout , on (même les singes) ait besoin de casser jusqu’à l’état le plus « petit  » possible .

      On casse des briques , de la « matière » .

      Si l’on veut bien repérer tous les différents sens qui ont été accrochés au terme matière , tels que :
      en physique des particules , en théorie de la relativité , en philosophie ( le premier « substrat » d’Aristote ) , en religions , en théorie de l’information …on pourrait conclure que la seule fission de permet pas de reconstituer le tout ( ça c’est évident ) , et qu’il reste à prouver que la fusion saurait le faire .

      Reste à savoir si cette tentative de fusion sera mieux réussie par une IA ( ou ITER) ou une intelligence « biologique » .

      Et que signifie « réussie » .

  19. Les machines nous surclassent dans les activités calculatoires, personne ne le nie. Pour autant les machines restent des machines, elles n’ont pas la capacité de se reproduire par elles mêmes.
    Si c’était le cas, alors elles deviendraient une nouvelle forme de vie, et là, je suis d’accord il y aurait de quoi s’inquiéter.
    Les machines ne sont pas, par définition, des systèmes auto-organisateurs, comme les êtres vivants. La vie est un phénomène relevant de processus d’auto-organisation. Les êtres vivants sont des entités néguentropiques qui résistent à la tendance générale à l’augmentation de l’entropie, grâce à leur capacité à stocker et traiter une information qui leur permet une certaine durabilité dans le temps en tant qu’entité individuelle, et qui leur permet d’évoluer dans le temps de génération en génération pour s’adapter à un environnement qui lui même se transforme.
    Tant que l’intelligence reste « artificielle » le point de non retour ne sera pas atteint. Enfin c’est ainsi que je vois les choses.

    1. @Macarel
      Oui. Et avant de pouvoir se reproduire entre elles, il faudrait que les machines puissent s’alimenter de façon autonome. Jusqu’à présent c’est l’homme qui leur fournit l’énergie nécessaire à leur fonctionnement et appui sur le bouton « on ».
      Certes, le petit robot Wall-E du film d’animation de Pixar se débrouille tout seul avec son capteur solaire mais les durées de vie des cellules photovoltaïques et des batteries ne sont pas éternelles.

      1. La chaîne de fabrication des panneaux et batteries est potentiellement entièrement robotisable, de même que leur renouvellement ou leur auto-nouvellement par le bot lui-même.

      2. @Vigneron
        Voui voui, potentiellement. Mais jusqu’à la détection de nouveaux gisements de minéraux rares indispensables après l’épuisement de ceux en cours d’exploitation ?

  20. « Nous étions victimes d’une convention implicite propre à notre culture d’humains…
    et pas que d’une convention !

    Nous avons d’autres limite. Un exemple illustre concrètement comment les machines dépassent facilement nos capacité:

    Observons que nous arrivons sans problème à nous faire des représentations 2D… et comment il est déjà plus ardu de le faire en 3D…
    Par une certaine gymnastique, certains arrivent à travailler mentalement sur de la 4D…
    D’autres passent au langage mathématique où l’ajout de n dimensions supplémentaires ne pose aucun problème et moins encore quand les calculs sont confiés à un ordinateur.

    Voilà tout.

    Ensuite, on peut se demander à quoi cela peut être utile pour nous simples humains constatant nos limitations…
    Il y a -au moins- une raison: celle qui permet de commencer à comprendre notre place dans l’univers. Certains humains se font un plaisir de vulgariser cette démarche, utilisant les outils créés pour dépasser nos limites.
    Exemple non limitatif: le modèle cosmologique « Janus »…

  21. Si AlphaGO est la première bactérie IA , et quelle est aussi contagieuse que l’impetiGO , on va vite morfler.

    C’était pour ne pas faire avancer le schmilblick .

  22. Je suis surpris par les commentaires. Beaucoup sont traversés par une réelle inquiétude sur le devenir de l’humanité à l’ère de l’intelligence artificielle.

    Ils me rappellent un peu ce que dit Maria Montessori dans son texte sur la main, où elle montre que les adultes sont pris d’une certaine angoisse à l’idée de laisser jouer (et apprendre) les enfants dans le monde adulte, angoisse qui se traduit par une intervention mal appropriée des adultes dans le jeu des enfants, entrave à leur développement naturel.

    Que je sache, les pires dictateurs étaient bien humains, trop humains. La dernière période du 20e siècle a démontré la faillite des humains à construire un monde systématiquement meilleur. Nous avons eu Staline et Hitler. Dans ces conditions, l’avènement de l’intelligence artificielle est peut-être une nouvelle occasion de répondre au défi des Lumières.

    Avec AlphaGo Zéro, nous avons peut-être résolu le paradoxe de Kant. Kant écrivait que l’humanité avait besoin d’un maitre et que, le paradoxe, c’est qu’il ne pouvait en l’état du monde kantien du 18e siècle, n’être autre chose qu’un humain. Au hasard : Donald Trump. Ce paradoxe est peut-être en voie d’être résolu techniquement : pour la première fois, l’humanité a trouvé son maître au jeu de Go. Et sur d’autres sujets bien plus sérieux, nos pauvres esprits embrumés par les passions archaïques pourraient trouver également un maître.

    Si les machines nous dépassent désormais en intelligence, et que l’esprit des Lumières consiste à penser que les progrès de l’intelligence peuvent être corrélés aux progrès sociaux et éthiques, alors elles peuvent en théorie nous dépasser en ces mêmes termes.

    Mais, s’il est vrai que l’intelligence des machines est un prolongement de notre propre intelligence comme l’outil est le prolongement de nos membres, il est à craindre que nous soyons en mesure de prolonger technologiquement en elles – non-seulement notre propre intelligence – mais aussi notre propre hubris (comme nous le faisons d’ailleurs parfois avec nos enfants).

    Alors, si nous nous illusionnions peut-être sur la tentation de nous débarrasser de notre responsabilité humaine à l’égard du monde que nous partageons avec les machines, peut-être faut-il penser que, comme nous avons encore une responsabilité à l’égard de nos enfants, nous devons nous saisir de notre responsabilité humaine à l’égard des machines que nous avons enfantées.

    Selon moi, s’il est possible de permettre à la machine de « penser par elle-même » en mettant au service de l’intelligence une capacité proprement réflexive (avec un principe d’expérimentation logique), alors il est possible que cela tourne bien mieux qu’avec les humains seuls ! Il est techniquement possible de faire intégrer les logiques de Platon, Rousseau ou Kant aux machines, et de leur permettre de nous enseigner à devenir meilleures.

    N’est-ce pas la un avenir possible ?

  23. Nous les humains, émanation du vivant qui a éclos sur notre vaisseau spatial Terre, vivons en symbiose avec elle de même qu’elle vit en symbiose avec son soleil, etc..
    Notre constitution, de la poussière d’étoile, et notre sensibilité extrême à notre environnement participent à notre soif de savoir et de maîtrise. Ce lien congénital avec la Terre et l’univers, cette dépendance vitale, je pense nous confère un avantage sous-exploité vis-à-vis de nos créations technologiques.

    1. « On sait aussi depuis toujours que la Raison n’est pas le Logos. »

      « – Inutile d’essayer, dit Alice. Qui pourrait croire en l’impossible?
      – Vous péchez, selon moi, par manque d’entrainement, dit la Reine. Quand j’avais votre âge, je m’y exerçais une demi-heure par jour. Eh bien, il m’est arrivé parfois, avant même l’heure du petit déjeuner, de croire jusqu’à six choses impossibles. »
      Lewis Carroll

  24. Cher monsieur Jorion,

    En latin, ratio = calcul. C’est tout. Ceci dit, on peut encore creuser l’étymologie et critiquer l’équivalence des deux mots ratio et calcul…

    Raison et intelligence, ce sont deux choses différentes. Qu’est-ce que l’intelligence? L’étymologie est à préciser, son usage originel à préciser dans la langue latine.

    On sait aussi depuis toujours que la Raison n’est pas le Logos. Les Romans ne sont pas des Grecs… Je n’insiste pas…

    L’usage des mots demande un effort constant pour lutter contre la tentation de la simplicité / confusion. Le monde de la langue (et donc de la pensée) n’est pas soumis à l’impératif de simplicité. Sauf dans l’anglais globish…

    Par ailleurs, lorsqu’un homme fait usage de la raison, il se comporte comme un ordinateur. Cela semble évident, non?

    Par conséquent, nous ne faisons que découvrir l’ampleur de la supériorité de la machine à se comporter comme … une machine!

    Le transhumanisme, ou le désir d’être une machine… O ai-je donc lu cela?

    Sinon, je préconise une petite cure de Philip K. Dick pour tout le monde!

    Bien cordialement,

    Asclépios

  25. Une chose que montre Alphago zéro, c’est qu’il y a un lien clair entre intelligence et degré de liberté. Alphago zéro prend tout les degrés de liberté possible dans le cadre fini du jeu, contrairement à Alphago.
    C’est bien beau d’être intelligent, mais ensuite qu’elle moralité individuelle peut développer une IA ? Peut-elle aimer le résultat anticipé de ses actions basé sur sa propre moralité ? (je ne vois pas de raisons qu’elle se satisfasse à 100% d’une moralité imposée par une autre entité?)
    Une question à laquelle pourront donc peut-être répondre les IA, si on les laisse sortir de notre cadre ou si elle le dépasse toute seules, y a-t-il une unité, un cadre plus grand ?
    Une chose qui me pose vraiment question, c’est : L’IA saura-t-elle se contrôler dans son processus d’apprentissage pour que celui-ci n’entraine pas de dégâts irréversibles à elle-même ni à nous ? Un enfant grandi en apprenant la gestion du risque, en repoussant ses limites petit à petit, parce que le vivant évolue d’une certaine façon et parfois, il y a des ratés… Qu’en sera-t-il d’une IA en apprentissage ?

      1. Pas mal le coup de tous les feux mis au vert à un carrefour.
        Je pense que la voiture « regarde » et les feux et, en même temps, les autres voitures. Les ingénieurs ont prévu le cas du véhicule qui brule un feu… donc ça devrait marcher !

    1. Intelligence :

      Avoir conscience des indénombrables potentialités immédiates .
      En connaître le plus grand nombre et se les approprier .
      =
      Ptévoir .

      ?

  26. Quelles différences ou relations ont les intelligences artificielles avec les intelligences naturelles ?
    Il serait bon d’éviter de donner cette enquête à l' »Intelligence Service », car la surdétermination libérale s’en amuserait.
    Mais aux faits, les lieux de l’intelligence naturelle sont-ils suffisamment explorés et bien orientés ?
    Si l’IA est un cauchemar pour certains , l’inconscient n’en est pas qu’un…

  27. Moi j’en sais rien et j’cause pas, j’agis, et le premier truc à faire et qui coûte pas cher en la matière c’est d’adhérer à la bonne vieille ASPCR (American Society for Prevention of Cruelty to Robots).
    https://www.google.fr/amp/s/motherboard.vice.com/amp/en_us/article/vvbxj8/the-plan-to-protect-robots-from-human-cruelty

    « I just made a humorous website based on an idea that might someday actually become relevant, and if it doesn’t, at least the murderous killbots will know I was on their side. »

  28. Yuval Noah Harari explique dans « Sapiens » comment le langage évolué a permis à l’humanité de faire un bond très important…
    en ce qu’il nous a permis de se forger des histoires, des mythes… dotés d’avantages et d’inconvénients…

    Suivant ce fil conducteur, ne faut-il pas considérer qu’un langage plus évolué, pour commencer le langage mathématique, plutôt bien supporté par les « machines », puisse nous aider à faire un autre bond majeur ? …
    D’autant que ce langage est (serait ?) plus proche de la réalité, nous évitant de sombrer dans de nouveaux mythes ?
    Bien entendu, il faudrait se garder de placer dans les machines IA, les semences de mythes qui ne feraient qu’aggraver la situation.

    Paradoxalement, il vaudrait mieux laisser les machines se débrouiller toutes seules, que de chercher à infléchir leurs comportements 😉

    1. Avec les méthodes traditionnelles de programmation un programme d’ordinateur ne fonctionne correctement que si tout les cas susceptibles de se présenter ont été prévus dans leurs moindre détails (ce à quoi on ne parvient pratiquement jamais…)

      Umberto Eco a consacré un livre – La recherche de la langue parfaite – à décrire le nombre incroyable de tentatives qui ont échoué au cours des siècles à créer de toutes pièces une langue parfaite, c.a.d. dépourvue des ambiguïtés qui caractérisent les langues naturelles, ambiguïtés qui rendent les traductions de l’une vers l’autre si délicates. Même obstacle quand on tente de rédiger une notice technique ou un bête « guide de l’utilisateur » dépourvu d’ambiguïté mais qui devient de ce fait strictement illisible.

      Dans sa conclusion Eco se moque à juste titre des informaticiens qui ignorent ces échecs lesquels, de manière remarquable, ont eu lieu à des époques oú il était admis de pratiquer à la fois la philosophie et les sciences exactes. Il est rigolo de constater qu’on a reproché à ce livre de faire appel à un langage de spécialiste donc très peu accessible.

      Le fait que le déroulement d’une partie de go ou d’échecs puisse être décrit de manière parfaitement précise et exacte fait que la supériorité d’AlphaGo sur les joueurs humains n’aura peut-être qu’une portée assez limitée. J’ai été nettement plus impressionné par l’annonce qu’un réseau de neurone entraîné à traduire une langue A dans une langue B et une langue C se soit avéré capable sans entraînement supplémentaire de traduire entre elles les langues B et C, ce qui laisse supposer qu’il a été capable de se constituer une langue artificielle intermédiaire plus satisfaisante que les trois langues naturelles A, B et C.

  29. Comment se mesure l’intelligence ?
    Il le faudrait savoir pour affirmer que IA est PLUS intelligent que IH
    À tout hasard je garde chez moi une masse avec une longueur de manche adaptée (pour l’effet de levier). Je trouverai bien quelques « luddites » pour m’accompagner dans une entreprise de destruction massive (et jubilatoire)
    PS : je m’en fiche, je ne joue pas au go

  30. Franchement, c’est juste une calculatrice.
    Un robot fera demain la vaisselle. En celà, il ne sera guère plus qu’un lave-vaisselle…
    Par contre, il ne verra jamais le pb que l’idée d’une taxe sur les robots devrait solutionner, et ne sera jamais capable de suggérer une solution pour ce type de problème.
    Il y a de l’abus à parler d’intelligence artificielle là où il n’y a que rationalité/calcul/arbitrage. On devrait dire « rationalité artificielle », ce qui éviterait bien des confusions.

    Le robot le plus perfectionné (et non pas évolué) ne sera jamais plus utile qu’un briquet ou l’art de frotter des silex (ce qui ne signifie pas qu’il sera moins dispensable, comme l’est déjà le web… et c’est d’ailleurs là le vrai pb des transhumanistes, au delà de leur foi pathétique et de leur matérialisme grossier : le monde qu’ils nous fabriquent n’est rien d’autre qu’une immense et implacable prison…).

    Les ingénieurs d’aujourd’hui font la même erreur que les psy d’hier: ils étendent abusivement la nature propre de leurs opérations mentales, ainsi que le domaine de validité de leur art/discipline à des questions qui relèvent de la métaphysique, et pour laquelle ils n’ont pas été formés (nuls en ontologie, nuls en épistémologie, nuls en biologie animale, et bien souvent nuls en logique: ce n’est pas un hasard si ce sont la plupart du temps des sommités issues de ces quatre domaines qui pètent littéralement un câble à la lecture de leurs litanies d’absurdités (les meilleurs, français pour nombre d’entre eux, ne le sont pas, d’ailleurs, ce qui donne à réfléchir…).

    1. L’exemple du lave-vaisselle me plait assez: quand je fais la vaisselle j’adapte plus ou moins judicieusement mes efforts à l’état de chaque chose à nettoyer alors qu’une machine à laver la vaisselle procède d’une manière extrêmement brutale en soumettant l’ensemble de la vaisselle au même traitement brutal (qui de ce fait gaspille beaucoup d’énergie.)

      Quand aux calculatrices et ordinateurs elles et ils ignorent carrément nos tables de multiplication, ce qui les conduit à faire (très très vite) un grand nombre d’additions pour effectuer une multiplication et un aussi grand nombre de soustractions pour une division.

      Là où nous utilisons toutes sortes de raccourcis « intelligents » l’informatique traditionnelle a recours à la « force brute » mais compense par une vitesse dont il est difficile de prendre conscience la « bêtise » de ses algorithmes sommaires.

      Même avant qu’il ne comporte la moindre trace d’IA Google Search peut/pouvait sembler pourvu de quelque amorce d’intelligence ou du moins d’à-propos mais c’est en mettant en oeuvre une force brute totalement inconcevable.

  31. Lorsque nous parlerons d’Entités Artificielles, je commencerai à prendre ces sujets au sérieux.
    Tant que nous en serons aux Intelligences Artificielles, je considérerai ça comme l’expression de l’hybris des concepteurs des dites « Intelligences ».

  32. On est frappé de voir que si l’intelligence artificielle réussi à faire essentiellement tout ce qui est demandé par la réflexion, elle est quasi incapable de faire ce que les gens et les animaux font « sans penser ». Ce qui est de fait, d’une certaine manière, beaucoup plus difficile!

    Donald Knuth

  33. Je comprends toujours pas votre lubie. Une machine opère ou interagit plus vite que son ombre. La belle affaire! Et ça serait nouveau? Tout le pb c’est que vous nommez ça suivant l’humeur « intelligence » ou « conscience ». Soyez physicialiste autant que vous le voulez mais de grâce faites tourner un logiciel un peu plus subtil. Au passage, la subejctivité n’est pas intersubjective ponctuellement et par accident, mais dans sa constitution même; et cette intersubjectivité est non séparable de perception qui l’affectent et font sens (et non calcul) –> Je vous donne rdv dans 10 ans (eut égard à votre âge), et y aura toujours pas le machin dont vous vous gargarisez la colone dans le patois du moment.

Répondre à Macarel Annuler la réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.