LE TEMPS QU’IL FAIT LE 22 DÉCEMBRE 2017 – Retranscription

Retranscription de Le temps qu’il fait le 22 décembre 2017. Merci à Marianne Oppitz !

Bonjour, nous sommes le vendredi 22 décembre 2017 et un des avantages d’avoir comme ça, dix ans de vidéos hebdomadaires, donc de l’ordre de 500 vidéos, c’est que – de votre point de vue – si vous me voyez, un jour, avoir des idées un peu farfelues ou qui vous paraissent farfelues, vous savez, vous avez pu voir comment ces idées farfelues ont pu émerger parce qu’elles sont venues, petit à petit, en tirant des conclusions d’événements qui se déroulaient autour de nous et d’autres hypothèses, d’autres idées de travail qui émergent.

Et si je dis ça, c’est parce que je voudrais un peu vous prévenir contre la réaction peut-être du farfelu absolu : de la chose dont je voudrais discuter aujourd’hui, c’est-à-dire consacrer l’intelligence artificielle à essayer de résoudre les problèmes que nous n’arrivons pas à résoudre.

Je viens de regarder la vidéo qui a été tournée à Beaubourg, c’était quand ? Il y a [huit] jours, quand il y a eu cette réunion organisée par la revue Études Digitales, en particulier par Jacques Athanase Gilbert et Franck Cormerais, les deux personnes qui m’ont interviewé pour produire le livre À quoi bon penser à l’heure du grand collapse ?, il y a là une table ronde et j’y interviens. Et pour la première fois me vient cette idée de confier notre sort aux machines, non pas pour les décisions que nous prenons au jour le jour, parce que ça, elles le font déjà, même si nous n’en sommes pas absolument conscients, mais de leur demander de résoudre les problèmes qui nous paraissent insolubles à nous.

Je lisais, tout à l’heure, un article qui expliquait à quel point nous avons déjà cessé de comprendre ce que fait la machine. L’exemple qui était utilisé, c’était quelqu’un, un chercheur au M.I.T (Massachussetts Institute of Technology) aux États-Unis, à Boston (Massachusetts) qui regardait ce qu’il faut faire pour convaincre un ordinateur qui fonctionne selon le « deep learning », c’est-dire un réseau de neurones artificiels, pour le convaincre que ce qu’il voit n’est pas un fusil mais un hélicoptère. Il suffit de modifier quelques pixels, ici et là, pour que tout-à-coup la machine détermine, décide, que ce n’est pas un fusil qu’elle voit mais un hélicoptère et, dans l’image que nous voyons, être humain, c’est encore manifestement un fusil qu’on voit. Qu’est-ce qui a conduit la machine à imaginer qu’elle voyait autre chose ?

Et, par ailleurs, je continue à lire ce livre, ce livre qui est le manuel actuel sur le deep learning, l’apprentissage supervisé – ou non-supervisé – par la machine selon le principe du réseau neuronal. Et plus je lis ce livre par les grands spécialistes de la question, plus je me rends compte qu’ils sont largués ! Ils sont largués : ils ne comprennent pas trop de quoi ils parlent. C’était beaucoup moins le cas cela dans les générations précédentes d’intelligence artificielle. Oui, comme partout, même dans l’intelligence artificielle, il y a des gens qui comprennent mieux leur métier que d’autres. Mais, qu’on puisse décoller à ce point par rapport à ce qui se passe, qu’on puisse, comme les auteurs de ce livre, manifestement, ne pas avoir l’intuition de ce qui se passe dans la machine. Oh ! Moi, j’ai une hypothèse, c’est que quand on a l’esprit un peu mathématique, on comprend comment l’ordinateur fonctionne. Apparemment, non, puisque ces gens sont des vedettes dans leur domaine et ils sont largués. Parce qu’ils sont à 4 ou 5, ils ont dû se relire les uns les autres et ils laissent passer des bourdes énormes. J’ai déjà fait allusion au fait qu’il y a quand même quelques dissidents, quelques hétérodoxes, ici et là, qui ont l’air de comprendre beaucoup mieux de quoi ça parle.

Qu’est-ce qui fait alors qu’on comprend l’intuition de la machine, de l’ordinateur ou pas ? Je ne sais pas. Si ce n’est pas l’esprit mathématique, c’est peut-être la pratique d’avoir écrit du programme, soi-même, considérablement. Moi, j’ai gagné ma vie comme ça, essentiellement. En écrivant des livres de programmation, en faisant des logiciels, en regardant comment ça marchait, en déboguant ça et ainsi de suite. Et, c’est peut-être comme ça qu’on acquiert véritablement … on voit, on est bien obligé de comprendre ce que la machine fait et qu’on ne comprend pas tout de suite. Si on comprenait tout de suite, il faudrait… – c’est un de mes fils qui me faisait la remarque l’autre jour – si on comprenait vraiment tout de suite ce que fait la machine, on ne devrait jamais déboguer : tout cela nous paraîtrait absolument lumineux et on ne chercherait pas parfois pendant des heures où est-ce qu’on a fait une erreur qui peut être – je dirais – une erreur conceptuelle plutôt que, simplement, un caractère pas mis au bon endroit.

Alors, j’ai l’impression qu’il ne faut pas… il ne faut pas, comment dire ? il ne faut pas se focaliser sur cette idée : est-ce qu’on comprend encore, ou non, ce que fait la machine ? Il faut lui poser les problèmes qui nous paraissent insolubles. Et, d’une certaine manière, il faudra lui faire confiance sur le fait que ce qu’elle propose comme étant une solution, est véritablement une solution. Bon, il ne faut pas la lancer comme ça dans la nature, il faut d’abord qu’elle résolve un grand nombre de problèmes classiques que nous comprenons encore, comme jouer aux échecs. Nous ne comprenons pas exactement ce que c’est que de gagner au jeu de « Go ». La preuve : nous avions dit que la machine ne serait jamais aussi bonne que nous et, en fait, elle l’a été rapidement. Nous étions focalisés sur cette idée d’« intuition » et que la machine n’aurait pas d’intuition. Même chose pour le poker, on s’est dit que la machine ne saurait jamais exactement ce que nous voulons dire par « bluffer ». Si ! la machine a trouvé toute seule. Vous pouvez interroger le programmeur, il en parle lui même. À aucun endroit il n’a écrit à la machine : « Bluffer, c’est ceci ou cela ». Non, c’est venu à la machine – ce que nous appelons bluffer – comme une solution au problème qui se pose.

Alors, ça va être compliqué. Voilà ! Il faudra qu’on soit sûr que cette machine pense bien. Une fois qu’on est convaincu qu’elle pense bien parce que, vraiment, elle nous laisse sur place et, ça peut-être d’une manière où on ne comprend plus vraiment pourquoi elle nous laisse sur place, euh… il faudra la tester. Et alors, il ne faut pas se laisser prendre non plus, je dirais, dans des… comme je vois là : il y a un certain nombre de gens qui parlent de l’Intelligence Artificielle et – je ne veux pas être méchant, mais ils feraient mieux de s’occuper d’autre chose – qui reprochent à la machine de ne pas être spontanément… pas spontanément avoir l’esprit « bobo », de ne pas spontanément être « politiquement correcte », de ne pas être spontanément pudibonde ou prude et ainsi de suite. Je comprends le souci de ces gens, mais soyons sérieux ! Soyons sérieux ! Le fait d’être pudibond, plus ou moins, ça change selon les époques. Nous sommes – vous le constatez – à nouveau dans une époque de pudibonderie victorienne, extrêmement poussée. On ne peut plus rien dire, on ne peut plus rien faire. On ne peut plus rien dire dans les films (rires). On ne peut plus s’adresser la parole dans la rue parce que… il ne faut pas…. voilà ! c’est dangereux ! On ne peut pas espérer que la machine va découvrir ça toute seule, d’autant que ce sont des modes, ça va, ça vient. Pourquoi est-ce que nous sommes dans la pudibonderie maintenant, dans le politiquement correct ? Euh… je ne sais pas pourquoi. Pourquoi la mode est revenue à ce point là. C’est peut-être parce que… oui, c’est peut-être un phénomène du type Novlangue comme décrit par Orwell dans 1984 : on ne peut plus appeler les choses par leur nom. Et alors, il vient des périodes où les choses – comme on ne peut plus mettre les bonnes étiquettes sur les bons produits – on arrive à des moments où Confucius nous dirait qu’il faut remettre l’ étiquette au bon endroit : « Il faut que le Prince soit de nouveau un prince. Il faut que le fils soit de nouveau un fils » et ainsi de suite. Il faudra revenir… C’est comme les krachs boursiers, il faudra revenir aux fondamentaux. Il faudra revenir un jour à ce qu’on puisse appeler un chat, un chat et que ce ne soit pas considéré comme un crime de lèse-majesté et qu’on essaye d’imposer à l’Intelligence Artificielle d’avoir nos préjugés, nos présupposés, voilà, notre pudibonderie.

Mais, bon ! Comment est-ce qu’on va savoir ? Comment va-t-on faire pour faire confiance à la machine qui nous dira simplement un truc qu’on ne comprend plus ? J’avais pris l’habitude – vous savez, quand on dit : quand est-ce qu’il y aura la singularité : quand est-ce que les machines seront bien plus intelligentes que nous ? J’avais pris l’habitude de dire systématiquement, depuis quelques années : « Il y a deux ans ! ». Par exemple, je dirais maintenant, voilà : « Quand est-ce que la singularité aura lieu ? 2015. » C’est une sorte de provocation, c’est une boutade. Mais c’est une provocation pour dire aux gens : « Ne vous focalisez pas là-dessus: si ça n’a pas déjà eu lieu, c’est en train d’avoir lieu ! » Mais, vous verrez dans cette conférence, à Beaubourg, il y a des gens qui me disent : « Oui, mais comment est-ce que la machine pourra jamais avoir une intuition ? Comment est-ce qu’elle pourra jamais avoir un sentiment ? » Je vous l’ai déjà expliqué mille fois : en 1987-88, quand j’ai fait de l’Intelligence Artificielle, j’ai fait une simulation : ce logiciel simulait d’avoir des émotions, il se conduisait comme s’il avait des émotions. Ce n’est pas très très compliqué, voilà ! C’est quelque dizaines de lignes de programmation. N’imaginons pas que ce soient des obstacles absolus, pour des notions comme bluff, intuition, etc. laissons tomber : ce sont des notions qui sont bien pratiques mais comme nous ne savons pas exactement de quoi nous parlons, voilà ! Comme avec la volonté, l’intention, ce sont des choses qu’il faut, comment dire ? analyser, voir comment ça marche vraiment. Mais ne nous focalisons pas sur le fait que, parce qu’il y a un mot dans la langue, il y a sûrement quelque chose qui est inscrit derrière. Nous avons, déjà eu, beaucoup d’illusions et beaucoup d’illusions perdues à cause de cela.

Alors, travaillons à ça ! J’ai dit qu’il faut se concentrer là-dessus. C’est ce que j’ai dit au début. Vous m’avez vu… vous avez vu cette idée émerger à partir de 2009, 2008 avant même le début de la crise, en 2007, vous me voyez dire : « Voilà, nous avons… des choses se passent : il faut absolument tirer les leçons de se qui est en train de se passer. Je peux dire que voilà, 10 ans plus tard, on n’a absolument pas tiré… Si, nous avons tiré des leçons ici et là, mais elles ne sont absolument pas sur l’écran de radar du politique : ce n’est pas de ça qu’on s’occupe. Donc, là, ce n’est pas du désespoir mais il faut être pragmatique, ça n’aura pas lieu. Si ça n’a pas pu avoir lieu, à chaud, dans les 10 années qui ont suivi, ça n’aura pas lieu. Alors, il faut penser à autre chose. J’ai beaucoup pensé au cours des 2 ou 3 dernières années, simplement à se concentrer sur le robot avec l’idée qu’il nous remplacerait une fois pour toute et puis que, voilà, ce serait terminé. Qu’il faut faire le deuil de l’idée de l’être humain comme survivant sur le long terme mais que la machine – et ce n’est peut-être pas déraisonnable.  Et puis, petit à petit, voilà, justement. Et c’est en commençant à lire ce gros manuel sur le deep learning et en voyant à quel point les auteurs sont décrochés par rapport à ce qu’ils décrivent, que voilà ! la singularité a eu lieu. Ils décrivent des choses qu’ils sont incapables de comprendre, alors qu’ils sont les grands experts reconnus de ce domaine.

Passons à l’étape suivante : demandons à la machine, carrément, de résoudre nos problèmes. C’est peut-être pour ça, je dirais, dans le long terme, la ruse de la raison, c’est peut-être ça. Nous l’avons peut-être inventée pour résoudre les problèmes qui nous apparaîtraient insolubles parce qu’ils commencent véritablement à nous dépasser. Et puisqu’elle est mieux que nous, puisqu’elle est plus intelligente, eh bien confions-lui ça. Demandons-lui… à nos enfants, demandons leur d’avoir de la gratitude envers nous puisque nous l’avons inventée et demandons lui de nous aider à sortir de ce pétrin. Et, vous le voyez, les êtres humains ne sont pas à la hauteur. On a des exemples quand même… Monsieur Trump est peut-être là pour nous convaincre de ça. Comme la civilisation des Aztèques était là pour convaincre… comment s’appelait-il ? José de Acosta [1539-1600], de ce que serait un monde sans Dieu, Monsieur Trump est peut-être là pour nous montrer ce qu’est un monde encore dirigé par des êtres humains alors qu’il y a des machines beaucoup plus intelligentes et beaucoup plus raisonnables qui sont déjà à notre disposition. Qu’il soit une occasion, pour nous, de nous mobiliser dans cette direction là.

Ce qui ne veut pas dire qu’il ne faut rien faire pour essayer de se débarrasser de ce bonhomme mais, il faut que je vous signale cette initiative faite par le mouvement Moveon.org, aux États-Unis, d’une insurrection en fait qui est planifiée, si Monsieur Trump s’avisait de récuser Monsieur Mueller, le Conseiller spécial, qui est en train d’enquêter sur le fait que Monsieur Trump est une « puppet », une marionnette, des services secrets russes depuis pas mal d’années. Monsieur Trump, évidemment, a la possibilité de, comment dire ? de démissionner, comment appelle-ton ça ? enfin bon, vous avez compris ce que je veux dire… de récuser Monsieur Mueller et il est prévu dans la quasi totalité des bourgades américaines, il y a des points de rassemblement, dans les heures qui suivent. C’est bien organisé au niveau du pays. Alors, ça se sont évidemment des situations qui peuvent déboucher sur des guerres civiles facilement puisqu’il suffira à d’autres personnes, armées – parce que les autres : les partisans de Trump, vous le savez, sont des gens surarmés – pour se rendre dans les endroits où se réuniront les défenseurs de la démocratie. Il y a des lieux de rassemblement prévus aussi en Europe : à Londres, à Paris et le mouvement a l’air de se développer. Vous pourrez ce jour là, aussi, si vous n’êtes pas trop loin d’un des points de rassemblement en Europe, vous rendre à cet endroit là. Et si vous êtes aux États-Unis, eh bien voilà, n’hésitez pas mais, soyez prudents ! Soyez prudents parce qu’en face, on a affaire à des .. eh bien, à des néo-Nazis. Voilà, appelons-les par leur nom, des identitaires, des néo-Nazis : les troupes de Monsieur Trump.

Enfin voilà ! Donc une raison de plus : Monsieur Trump, pour se concentrer sur les machines, et comme je le disais, c’est un peu le message d’aujourd’hui, de ne pas trop se préoccuper de pourquoi elles comprennent mieux que nous. Si c’est vraiment parce qu’il y a eu singularité : si c’est vraiment parce qu’elles sont plus intelligentes que nous, et que ça nous dépasse de la même manière qu’un chimpanzé ne comprend pas exactement comment se comporte un être humain à côté de lui parce qu’il opère de manière plus complexe, avec des déterminations plus complexes, par exemple, des choses qu’il a lues dans un livre, et que le chimpanzé, lui-même, ne sait pas ce que c’est qu’un livre. Ne nous focalisons pas trop sur comment la machine arrive à ces résultats, si nous avons pu prouver par ailleurs, que c’est une machine qui est plus intelligente que nous.

Voilà ! c’est un peu de la science-fiction, bien entendu, mais, comme je vous l’ai dit, la science-fiction, ça n’existe plus ! La science-fiction quand elle sort dans des livres, elle est en retard par rapport à la réalité qui va maintenant beaucoup plus vite ! Alors, vivons dans le monde où nous sommes, « comprenons les temps qui sont les nôtres », et soyons sur la même longueur d’onde que ces machines que nous avons inventées, qui nous ont échappé et, ce n’est pas parce que nous avons écrit le programme que nous comprendrions exactement de quoi il s’agit. Comme je vous le disais tout à l’heure : il suffit d’avoir écrit deux lignes de programmation pour déjà se demander : « Qu’est-ce que cette machine fait exactement, à partir de ce que j’ai écrit ? », alors même que nous avons le sentiment que nous comprenons exactement et que nous ne nous trompons pas sur ce que font exactement ces deux lignes, mais, il y a des interactions et les interactions, surtout si il y a des seuils qui peuvent être dépassés, qui produisent telle ou telle réaction d’un autre ordre, rapidement tout cela nous dépasse : cela devient autre chose, ça devient émergent. Quand j’ai fait, moi, de l’informatique… enfin, ce n’est pas moi, je l’ai expliqué, c’est un de mes collègues qui a appelé mon système : « Associative network with emergent (or emerging) learning and logical abilities » (réseau associatif avec des capacités à l’apprentissage et à la logique émergentes) [ANELLA]. Voilà, et c’est évident : cette machine me surprenait déjà et surprenait tous les gens autour de moi. « Comment est-ce qu’elle peut savoir ça ? Comment est-ce qu’elle réagi comme ça, d’une manière tout à fait appropriée ? » Dans ce cas là, c’était parce que j’avais simulé une dynamique émotionnelle. Et, une dynamique émotionnelle associée à des règles de logique élémentaire qui ne sont même pas des « règles de logique » mais simplement de l’association de termes, ça suffit déjà à produire un comportement qui a l’air intelligent et humain par définition.

Enfin, voilà ! Ça c’était la réflexion pour aujourd’hui. À bientôt ! Au revoir.

Partager :