Pourquoi les machines deviennent très rapidement beaucoup plus intelligentes que nous

Ouvert aux commentaires.

Pourquoi les machines deviennent-elles très rapidement beaucoup plus intelligentes que nous ? C’est une question de culture. Une machine qui apprend toute seule n’est pas contrainte par la nôtre, celle des humains.

Comme l’explique David Silver dans ces deux petites vidéos, une machine qui apprend toute seule, en essayant de se battre elle-même, améliore sa performance à partir de rien : « from scratch », à partir de zéro, de la tabula rasa, à partir de l’ignorance totale.

Tant que la machine apprend à partir de la manière dont nous résolvons les problèmes, parce qu’on lui enseigne en lui disant de battre un adversaire dans des parties « historiques », elle participera de la « culture » que nous avons bâtie, nous humains, sur la manière de jouer ce jeu. Mais dès que la machine redécouvre entièrement le jeu, à partir de rien, elle n’est plus liée par nos conventions implicites relatives à ce que c’est que bien jouer. Vous vous souvenez peut-être de cette percée en 2015 quand, dans le jeu vidéo vintage casse-briques, la machine avait soufflé tous les anciens joueurs de ce jeu en allant casser des briques par au-dessus, en allant ricocher sur le plafond de l’écran.

Nous étions victimes d’une convention implicite propre à notre culture d’humains qui voulait qu’on ne casse évidemment les briques que d’en-bas.

AlphaGo de DeepMind (groupe Google) avait appris à partir de parties de Go jouées par des humains. Elle ne jouait pas si mal : elle avait battu tous les champions humains. AlphaGo Zero a elle appris toute seule, en essayant de se battre elle-même. Elle a battu AlphaGo par … 100 à 0.

AlphaGo était une classe au-dessus des humains. AlphaGo Zero est une classe au-dessus de AlphaGo.

P.S. Oui je sais, AlphaGo Zero n’est pas capable de faire la vaisselle entre deux parties. Nous nous rassurons comme nous le pouvons, nous pauvres humains.

Partager :

70 réflexions sur « Pourquoi les machines deviennent très rapidement beaucoup plus intelligentes que nous »

  1. Yuval Noah Harari explique dans « Sapiens » comment le langage évolué a permis à l’humanité de faire un bond très important…
    en ce qu’il nous a permis de se forger des histoires, des mythes… dotés d’avantages et d’inconvénients…

    Suivant ce fil conducteur, ne faut-il pas considérer qu’un langage plus évolué, pour commencer le langage mathématique, plutôt bien supporté par les « machines », puisse nous aider à faire un autre bond majeur ? …
    D’autant que ce langage est (serait ?) plus proche de la réalité, nous évitant de sombrer dans de nouveaux mythes ?
    Bien entendu, il faudrait se garder de placer dans les machines IA, les semences de mythes qui ne feraient qu’aggraver la situation.

    Paradoxalement, il vaudrait mieux laisser les machines se débrouiller toutes seules, que de chercher à infléchir leurs comportements 😉

    1. Avec les méthodes traditionnelles de programmation un programme d’ordinateur ne fonctionne correctement que si tout les cas susceptibles de se présenter ont été prévus dans leurs moindre détails (ce à quoi on ne parvient pratiquement jamais…)

      Umberto Eco a consacré un livre – La recherche de la langue parfaite – à décrire le nombre incroyable de tentatives qui ont échoué au cours des siècles à créer de toutes pièces une langue parfaite, c.a.d. dépourvue des ambiguïtés qui caractérisent les langues naturelles, ambiguïtés qui rendent les traductions de l’une vers l’autre si délicates. Même obstacle quand on tente de rédiger une notice technique ou un bête « guide de l’utilisateur » dépourvu d’ambiguïté mais qui devient de ce fait strictement illisible.

      Dans sa conclusion Eco se moque à juste titre des informaticiens qui ignorent ces échecs lesquels, de manière remarquable, ont eu lieu à des époques oú il était admis de pratiquer à la fois la philosophie et les sciences exactes. Il est rigolo de constater qu’on a reproché à ce livre de faire appel à un langage de spécialiste donc très peu accessible.

      Le fait que le déroulement d’une partie de go ou d’échecs puisse être décrit de manière parfaitement précise et exacte fait que la supériorité d’AlphaGo sur les joueurs humains n’aura peut-être qu’une portée assez limitée. J’ai été nettement plus impressionné par l’annonce qu’un réseau de neurone entraîné à traduire une langue A dans une langue B et une langue C se soit avéré capable sans entraînement supplémentaire de traduire entre elles les langues B et C, ce qui laisse supposer qu’il a été capable de se constituer une langue artificielle intermédiaire plus satisfaisante que les trois langues naturelles A, B et C.

  2. Comment se mesure l’intelligence ?
    Il le faudrait savoir pour affirmer que IA est PLUS intelligent que IH
    À tout hasard je garde chez moi une masse avec une longueur de manche adaptée (pour l’effet de levier). Je trouverai bien quelques « luddites » pour m’accompagner dans une entreprise de destruction massive (et jubilatoire)
    PS : je m’en fiche, je ne joue pas au go

  3. Franchement, c’est juste une calculatrice.
    Un robot fera demain la vaisselle. En celà, il ne sera guère plus qu’un lave-vaisselle…
    Par contre, il ne verra jamais le pb que l’idée d’une taxe sur les robots devrait solutionner, et ne sera jamais capable de suggérer une solution pour ce type de problème.
    Il y a de l’abus à parler d’intelligence artificielle là où il n’y a que rationalité/calcul/arbitrage. On devrait dire « rationalité artificielle », ce qui éviterait bien des confusions.

    Le robot le plus perfectionné (et non pas évolué) ne sera jamais plus utile qu’un briquet ou l’art de frotter des silex (ce qui ne signifie pas qu’il sera moins dispensable, comme l’est déjà le web… et c’est d’ailleurs là le vrai pb des transhumanistes, au delà de leur foi pathétique et de leur matérialisme grossier : le monde qu’ils nous fabriquent n’est rien d’autre qu’une immense et implacable prison…).

    Les ingénieurs d’aujourd’hui font la même erreur que les psy d’hier: ils étendent abusivement la nature propre de leurs opérations mentales, ainsi que le domaine de validité de leur art/discipline à des questions qui relèvent de la métaphysique, et pour laquelle ils n’ont pas été formés (nuls en ontologie, nuls en épistémologie, nuls en biologie animale, et bien souvent nuls en logique: ce n’est pas un hasard si ce sont la plupart du temps des sommités issues de ces quatre domaines qui pètent littéralement un câble à la lecture de leurs litanies d’absurdités (les meilleurs, français pour nombre d’entre eux, ne le sont pas, d’ailleurs, ce qui donne à réfléchir…).

    1. L’exemple du lave-vaisselle me plait assez: quand je fais la vaisselle j’adapte plus ou moins judicieusement mes efforts à l’état de chaque chose à nettoyer alors qu’une machine à laver la vaisselle procède d’une manière extrêmement brutale en soumettant l’ensemble de la vaisselle au même traitement brutal (qui de ce fait gaspille beaucoup d’énergie.)

      Quand aux calculatrices et ordinateurs elles et ils ignorent carrément nos tables de multiplication, ce qui les conduit à faire (très très vite) un grand nombre d’additions pour effectuer une multiplication et un aussi grand nombre de soustractions pour une division.

      Là où nous utilisons toutes sortes de raccourcis « intelligents » l’informatique traditionnelle a recours à la « force brute » mais compense par une vitesse dont il est difficile de prendre conscience la « bêtise » de ses algorithmes sommaires.

      Même avant qu’il ne comporte la moindre trace d’IA Google Search peut/pouvait sembler pourvu de quelque amorce d’intelligence ou du moins d’à-propos mais c’est en mettant en oeuvre une force brute totalement inconcevable.

  4. Lorsque nous parlerons d’Entités Artificielles, je commencerai à prendre ces sujets au sérieux.
    Tant que nous en serons aux Intelligences Artificielles, je considérerai ça comme l’expression de l’hybris des concepteurs des dites « Intelligences ».

  5. On est frappé de voir que si l’intelligence artificielle réussi à faire essentiellement tout ce qui est demandé par la réflexion, elle est quasi incapable de faire ce que les gens et les animaux font « sans penser ». Ce qui est de fait, d’une certaine manière, beaucoup plus difficile!

    Donald Knuth

  6. Je comprends toujours pas votre lubie. Une machine opère ou interagit plus vite que son ombre. La belle affaire! Et ça serait nouveau? Tout le pb c’est que vous nommez ça suivant l’humeur « intelligence » ou « conscience ». Soyez physicialiste autant que vous le voulez mais de grâce faites tourner un logiciel un peu plus subtil. Au passage, la subejctivité n’est pas intersubjective ponctuellement et par accident, mais dans sa constitution même; et cette intersubjectivité est non séparable de perception qui l’affectent et font sens (et non calcul) –> Je vous donne rdv dans 10 ans (eut égard à votre âge), et y aura toujours pas le machin dont vous vous gargarisez la colone dans le patois du moment.

Les commentaires sont fermés.