Université catholique de Lille, « Déclarer l’état d’urgence pour le genre humain ? » (1 de 6), Quel scénario pour les années qui viennent ? – Retranscription

Retranscription de Université catholique de Lille, Paul Jorion : « Déclarer l’état d’urgence pour le genre humain ? », première de six conférences, le 6 novembre 2018. Merci à Eric Muller ! Ouvert aux commentaires.

Je précise que, de formation, je suis anthropologue et sociologue et que j’ai acquis ensuite, sur le côté – vous savez que ça prend un certain nombre d’années – une formation de psychanalyste. J’essaye de faire bénéficier mes analyses de l’ensemble de ces éclairages. Il y a un éclairage supplémentaire, c’est le fait que j’ai fait carrière pour la plus grande partie de ma vie dans le secteur privé, à l’intérieur de la vraie vie, tout d’abord en étant pêcheur en mer pendant une petite période – pendant une période de dix-huit mois – et ensuite en travaillant pendant dix-huit ans dans le secteur de la banque, dans de nombreux pays : j’ai commencé en France, ensuite en Angleterre puis aux Pays-Bas, et ensuite douze ans aux États-Unis. Une multitude d’éclairages qui, j’espère, permettent que j’aie une boîte à outils peut-être un peu plus vaste que la plupart des gens qui posent le regard sur des problèmes particuliers. J’espère que cet ensemble d’outils possibles, d’éclairages dans plusieurs directions, permette de donner à certains phénomènes toutes leurs dimensions, de les prendre par tous les bouts où ils se posent.

C’est la première fois aujourd’hui, sans doute, que je fais un exposé qui est consacré uniquement à des films. Je dois dire, à ce sujet-là, que contrairement aussi à un certain nombre de personnes – par exemple, je dirais, des politologues, des éthiciens, des gens de parcours essentiellement universitaire – l’anthropologue s’intéresse à tous les aspects de la société humaine, et n’aura pas cette attitude – qu’on appelle en anglais highbrow – lowbrow. Qu’est ce que ça veut dire ? Highbrow, c’est le regard très sérieux de la personne avec beaucoup d’années d’études, beaucoup d’années passées sur les bancs des écoles, et le lowbrow, c’est le regard fermé de la personne sans beaucoup d’éducation.

C’est un peu une tradition, parfois, dans l’université, de faire la distinction entre la haute culture et la basse culture. Pour l’anthropologue qui s’intéresse à l’humanité en général, il n’y a pas ce genre de distinction. Ceux d’entre vous qui connaissent mon blog savent l’intérêt que je porte à la chanson, et en particulier aux paroles des chansons, parce que les paroles des chansons, en général, ce sont des choses qui nous parlent à tous : ce sont des thèmes très simples, parfois à la limite du simplisme, mais ce sont des choses qui nous touchent tous personnellement. La télé-réalité, c’est quelque chose qui me paraît très intéressant aussi, parce que, pour faire venir des gens en grand nombre devant leur télé pour regarder des drames, il faut que ça intéresse les gens – sans quoi on ne pourrait pas les faire venir.

Alors quatre films. Pourquoi ? J’aurais pu dire quatre romans parce que la plupart de ces films sont inspirés de romans ou bien directement la version filmée de certains romans. Mais parce que, en général, il y a beaucoup plus de gens qui vont voir un film que de gens qui lisent le roman – je parlerai un petit peu des deux. Et puis, il y a la manière, aussi, dont le cinéma a pu mettre en évidence des choses que nous avons du mal à nous représenter. En particulier, les véritables dangers à court, moyen et long terme qui nous font face sont des problèmes que nous avons un peu de mal à nous représenter, justement parce que nous ne pouvons pas nous représenter visuellement ce que ça représente.

Nous pouvons nous représenter une éruption d’un volcan parce qu’on peut voir ça au cinéma, si on ne l’a pas vu de visu, mais la menace d’une extinction pour le genre humain, c’est une chose que nous avons du mal à nous représenter, d’autant que nous pouvons imaginer que nous ne sommes pas directement menacés – que c’est un problème, peut-être, pour les enfants de nos arrière-petits-enfants – et comme notre séjour sur la Terre est limité, nous n’avons qu’une petite fenêtre sur ce qui se passe à l’intérieur de l’histoire entière de l’humanité. Nous avons évidemment une approche asymétrique, puisque nous pouvons savoir beaucoup de choses sur ce qui s’est déjà passé, mais que nous ne savons rien sur ce qui se passera encore – ou comme disait notamment le Philosophe [Aristote] : « sur ce qui doit encore se passer, nous ne savons que deux choses : que l’impossible n’arrivera pas et que le nécessaire se produira nécessairement » et que pour tout le reste, nous pouvons spéculer sur la possibilité ou non pour un événement de se produire.

La plupart des ouvrages dont je vais vous parler, ou des films sur les ouvrages, sont des films qu’on appelle de science-fiction. Vous connaissez ce label, cette étiquette. Elle a parfois été remise en question parce que la plupart de ces films, de ces livres, parlent plutôt d’utopie, au sens où le mot veut dire des choses qui se passent ailleurs, qui sont parfois des, comment dire, j’oublie le terme qu’on utilise – qui mélangent différentes époques… [uchronie]

Comme vous le savez, dans certaines représentations de ce qu’on appelle le space opera, on nous mélange des choses qui se passent dans le futur mais où ce sont des civilisations de type féodal qui sont représentées. Mais ce que permet ce type d’approche qu’on appelle traditionnellement « science-fiction », c’est surtout de représenter d’autres mondes, et des gens comme nous, essentiellement – On ne représente pas dans les films des extraterrestres qui fonctionnent d’une manière absolument incompréhensible pour nous – Nous, dans d’autres environnements, dans d’autres contextes, en modifiant légèrement les circonstances et en regardant ce qui se passe.

Alors, essentiellement, ce soir je vais vous parler de quatre films : celui qu’on appelle On the Beach, en français Le dernier rivage, Terminator, Elysium – Tous ces films n’ont pas eu leur titre véritablement traduit, sauf au Québec où, vous le savez, on traduit littéralement tous les titres de film anglais, mais nous, nous ne faisons pas ça – et le dernier, c’est Interstellar.

Pourquoi ces quatre films ? Eh bien vous verrez, parce qu’il y a quatre scénarios possibles pour notre avenir. Ça ne représente pas, bien entendu, toutes les possibilités, et je vais essayer d’évoquer un petit peu – et ce seront aussi des choses qui seront discutées dans les futurs exposés – un certain nombre de possibilités pour nous, pour l’avenir. Des variations sont possibles, mais il m’a semblé que ces quatre films représentent quatre grands dangers – ou du moins quatre grandes représentations de ce qui pourrait être, de manière réaliste, non plus de la spéculation sur d’autres monde ou sur l’avenir, mais des choses qui nous arriveraient véritablement.

Un des auteurs que je mentionnerai est Kurt Vonnegut. Kurt Vonnegut est un romancier américain né en 1922, mort en 2007, dont plusieurs des scénarios ont été l’objet de films et qui était très irrité qu’on lui dise qu’il s’agit de « science-fiction ». Pour un de ses romans en particulier, qui n’a pas été l’objet d’un film – qui s’appelle Player Piano, il était particulièrement irrité qu’on parle de science-fiction : il insistait toujours dans les interviews pour dire : « Non. Je parle du monde d’aujourd’hui; je parle de quelque chose qui est déjà en train d’avoir lieu. »

Qu’est ce que c’est que ce roman Player Piano ? Il faut souligner la date à laquelle ça a été écrit : publié en 1952, c’est le premier roman, d’ailleurs, de cet auteur dont plusieurs des romans, comme Slaughterhouse 5, Abattoir 5, Breakfast of Champions – je suppose que ça s’appelle Le déjeuner des champions [Le breakfast du champion] – ont fait l’objet de films. Dans Player Piano de 1952, il nous montre un monde où l’homme – et la femme, bien entendu – est en train d’être remplacé entièrement par la machine, et il souligne la création de deux mondes distincts : celui de ceux qui travaillent à la machine – qui la produisent, qui savent l’entretenir, etc. – et d’autres personnes qui, elles, deviennent de plus en plus oisives – et le mépris de ceux qui travaillent encore pour ceux qui ne le font plus. En particulier, une dimension dramatique du roman, c’est le fait que le héros fait partie des techniciens qui font encore fonctionner la machine – et qui habite dans la bonne partie de la ville – et qui petit à petit devient, je dirais, un peu écolo, et commence à trahir les valeurs de son groupe – et qui est trahi par son épouse qui, elle, vient du monde de ceux qui ne travaillent pas, et qui à un ressentiment tout particulier envers son mari quand il s’interroge, quand il se pose des questions sur ce monde d’asservissement à la technologie. C’est un thème qui est tout à fait prégnant chez Vonnegut. Un double aspect : le fait que la technologie nous envahit de plus en plus – que cette réalisation extraordinaire que nous sommes arrivés à faire, en fait, nous remplace de plus en plus – et ça va être une chose dont je parlerai – et aussi que notre mépris monte de plus en plus, à l’intérieur de notre culture, pour ceux qui n’arrivent pas à faire partie de ce monde de la machine.

Quelque chose qui me vient auquel je n’avais pas pensé, c’est cette difficulté que nous avons – ce rejet qui a lieu à l’intérieur de nos sociétés – qui est peut-être déjà une manifestation, en soi, de ce que dénonce Vonnegut – pas seulement dans ce roman-là mais dans plusieurs autres. Pour les gens qui sont « pas bons en maths » et dont on sait que, quand on passera à un monde de plus en plus où les seuls emplois qui seront encore présents seront pour les personnes qui travailleront pour le numérique, pour l’intelligence artificielle – soit pour faire de la maintenance, soit pour produire des programmes, etc. etc. – nous savons tous que quand il s’agit de cette conversion qu’on nous présente comme possible, tout le monde va passer là-dedans. Nous savons déjà que les gens qu’on appelle « pas bons en maths » seront des laissés pour compte.

Un petit aparté avant de parler des quatre films : je vais prendre simplement dans l’ordre chronologique des romans et des films. Il n’y a pas de raison particulière – mais les quatre thèmes, vous verrez, s’interconnectent – et il n’y a pas d’ordre particulier dans lequel les prendre.

Le premier est lié à une problématique que nous mettons un petit peu entre parenthèses maintenant : c’est celui d’une guerre atomique, mais il n’est pas certain qu’on ne puisse pas transposer le thème de la guerre atomique à la guerre chimique, à la guerre bactériologique, à la guerre par drones – ces cyber-guerres dont je vous rappelle qu’il y en a une qui est en train d’avoir lieu. Nous sommes dans la troisième guerre mondiale : il y a une cyber-guerre en train d’avoir lieu, en particulier entre la Russie et les nations occidentales. On nous en parle de manière tout à fait fragmentaire : on en parle à propos d’élections qui pourraient être piratées, on nous parle de contrôle qui pourrait être pris par différents programmes – que certains pays prendraient le contrôle du réseau électrique dans d’autres, et des choses cet ordre-là. Tout ça est déjà extrêmement présent : Quand on parle de guerre thermonucléaire, il n’est pas évident par nécessité que ce soit quelque chose que nous puissions déjà mettre en parenthèses.

Alors, ce film On the Beach – en français Le dernier rivage – est un film qu’on appelle un film culte. Qu’est ce qu’on appelle un « film culte » ? C’est un film qui n’a pas fait de grandes entrées au cinéma au moment même – parce que le thème était souvent en avance ou n’avait pas trouvé son public. C’est un film qui a perdu de l’argent au moment où il est sorti – malgré le fait qu’il y avait une distribution tout à fait extraordinaire – mais au fil des années, le thème a été de mieux compris. Il faut dire qu’il y avait un apriori, je dirais, défavorable au film en tant que tel : c’était un film pessimiste, extrêmement pessimiste, et qui parlait de l’inéluctabilité d’une guerre nucléaire. Il y a des thèmes, des sous-thèmes, je dirais, à la limite de l’insoutenable, des dilemmes dont je vous parlerai. C’est un film qui était inspiré d’un roman paru deux ans plus tôt qui s’appelait également On the Beach « Sur la plage », publié en 1957 par un auteur qui s’appelait Nevil Shute – Le roman est un roman très intéressant. Il y a eu des problèmes durant le tournage parce que le romancier a trouvé que son roman était trahi, mais au fil des années, l’opinion s’est installée – et c’est la mienne en particulier – que le film est supérieur, d’une certaine manière, au roman, et qu’effectivement, les scénaristes du film étaient arrivés à rendre encore plus dramatiques un certain nombre de situations, bien que ce ne soit pas avec l’accord de l’auteur.

Alors la distribution : des grandes vedettes de l’époque. Le principal rôle masculin, c’est Gregory Peck ; vous l’avez peut-être vu dans Moby Dick, dans To Kill a Mockingbird – je ne sais pas comment ça s’appelle en français; « Tuer un oiseau » – dont d’ailleurs je ne connais pas le nom en français [Du silence et des ombres]- qui était la mise au cinéma d’un très très grand roman américain, extrêmement connu, sans doute parmi les plus vendus aux États-Unis.

Gregory Peck donc, un très grand acteur d’Hollywood, et en face de lui, Ava Gardner dont vous avez sans doute entendu parler – La comtesse aux pieds nus – des très grands rôles, en général de femme fatale, ici dans un rôle qui n’est pas de femme fatale mais d’une femme vieillissante et minée par l’alcoolisme. Je vous en dirai davantage. Dans un rôle tout à fait inattendu, Fred Astaire, le danseur à claquettes qui a joué dans sa vie dans quelques films dramatiques, et tout particulièrement dans celui-ci, où il montre qu’en plus d’être un très grand danseur, c’est un très très grand acteur. Il a un rôle tragique tout à fait remarquable. Et dans un de ses premiers rôles, Anthony Perkins, qui deviendra une très grande vedette que vous connaissez sûrement de Psychose – c’est le film le plus connu de lui.

Alors de quoi s’agit-il ? Le film se passe pratiquement entièrement en Australie – il y a une partie du film qui se passe aux États-Unis, et j’expliquerai pourquoi. Ce qui se passe, c’est qu’un sous-marin avec un équipage américain arrive à Melbourne, en Australie, parce qu’une guerre nucléaire a eu lieu qui a dévasté entièrement, en tout cas l’hémisphère nord : il reste quelques poches de population qui ne sont pas atteintes par le nuage radioactif dans l’hémisphère sud. Dans le roman, il y a plusieurs pays, en particulier l’Uruguay. Le film a simplifié : il n’y a plus que l’Australie où il y a encore des populations qui vivent dans des conditions normales. Gregory Peck est le capitaine ou le commandant du sous-marin qui arrive à Melbourne. C’est donc un sous-marin d’une armée en déroute puisqu’il n’y a plus qu’eux, à notre connaissance, en tant qu’Américains qui survivent, et ces gens, le capitaine et l’équipage, sont accueillis par la communauté australienne qui se pose la question, à ce moment-là, au début du film : « Est-ce que le nuage arrivera en Australie, ou est-ce que, par un miracle de l’atmosphère, le nuage n’arrivera pas ? » et au fur et à mesure que le film se déroule, il devient de plus en plus clair que le nuage va arriver.

Donc, on parle d’un monde en sursis : on est en Australie dans un monde en sursis. Il y a un épisode intermédiaire, c’est quand le sous-marin repart, parce qu’il y a des messages en morse qui sont encore envoyés de San Francisco, et on veut voir s’il n’y a pas une partie de la population américaine qui aurait survécu. Quand on arrive à San Francisco, d’abord, pour le spectateur, c’est assez extraordinaire de voir la manière dont on peut utiliser une ville vide pour représenter des choses glaçantes, la manière de montrer des endroits dans une ville où vous vous attendez à voir des gens, et on ne peut pas les voir. C’est une chose tout à fait remarquable, et c’est la réussite du metteur en scène dont je ne vous ai toujours pas dit le nom, Stanley Kramer, qui sera surtout connu du grand public pour un film Guess Who’s Coming to Dinner, Devine qui vient dîner?, qui est un film sur la dé-ségrégation, les relations difficiles, aux États-Unis, entre la population blanche et la population d’origine afro-américaine – puisque le problème se pose toujours d’essayer de tenir compte du fait, à l’intérieur d’une nation, qu’un pays a été esclavagiste et que cela, l’esclavagisme, a été au fondement même de sa société, à une époque.

Comme vous le savez, pour les Américains qui votent aujourd’hui aux États-Unis, il y a de très nombreuses questions qui sont encore liées à cela, comme ce qu’on appelle la voter suppression, les tentatives qui sont faites, par exemple, dans l’état de Géorgie – je le mentionne puisque c’est aujourd’hui que ça se passe – où le gouverneur républicain essaye d’utiliser le fait que les noms de famille d’origine africaine conduisent parfois à des erreurs à l’inscription sur les registres, pour dire que s’il y a la moindre différence orthographique entre une carte d’électeur et ce qui est inscrit sur le papier de la personne dans le bureau de vote conduit à l’exclusion du votant. Ou alors, dans un article qui a paru hier dans Le Monde, j’attirais l’attention sur le fait qu’une méthode – qui apparaît comme extrêmement scientifique – de classement, de notation des emprunteurs éventuels en fonction de calcul mathématique complexe, cache simplement le fait qu’on veut cacher que la population d’origine afro-américaine a plus de difficulté à obtenir des prêts. Parce que, bien entendu, comme je le disais, l’héritage de la guerre de Sécession, de la guerre de libération, de l’abolition de l’esclavagisme, n’est pas encore entièrement digéré dans ce pays, et on le cache. C’est une loi de 1975 qui a obligé les prêteurs à donner des justifications de type scientifique et empirique au fait de refuser, à quelqu’un qui le demande, un prêt immobilier. Alors, on a inventé une méthode super mathématique ! Je dirais que c’est un cache-sexe du fait que la population afro-américaine est moins riche aux États-Unis.

Je reviens au film : le sous-marin arrive en Australie; on voit quelques signes à San Francisco; on se rend dans la ville de San Francisco, et en fait, les signes morse sont envoyées simplement… : il y a, dans une fenêtre entrouverte qui bouge légèrement du fait de la brise, il y a une bouteille de Coca-Cola qui est à moitié couchée sur une machine qui envoie des signaux morse; et donc on découvre, en fait, qu’il n’y a absolument personne. Un moment dramatique, c’est quand on perd un membre d’équipage qu’on retrouve tout à coup, au moment de plonger, sur une petite barque, et on comprend qu’il est lui-même habitant de San Francisco et qu’il a décidé de mourir chez lui.

Le sous-marin revient, et la population se rend compte petit à petit que la fin est proche, même pour eux. Le nuage avance : on commence à parler de distribuer des pilules pour s’euthanasier. Le rôle de Fred Astaire est celui d’un personnage excentrique, qui a apparemment une fortune personnelle, et qui s’amuse à faire des courses de voitures – les amateurs de voitures se sont amusés à décrire les voitures extraordinaires qu’on a utilisées dans ce film pour représenter une course. Fred Astaire essaye de se tuer dans une course, c’est sa manière de sortir ; il n’y arrive pas et finira par se suicider en s’enfermant dans son garage, en mettant le moteur en marche et en mourant d’une intoxication au gaz carbonique.

Les discussions qui ont lieu sont très intéressantes : il y a des réflexions sur « Pourquoi la guerre ? », il y a des réflexions, je dirais, de type humaniste sur le fait que nous sommes un animal qui a réussi beaucoup de choses, et que c’est un animal qui n’est pas parvenu à régler certains problèmes autrement – dès qu’un problème est un tout petit peu complexe – de le résoudre autrement que par la guerre, c’est à dire en fait par la destruction. Il y a en particulier, je dirais, une intervention de Fred Astaire : on lui demande d’où est venue la guerre et il parle de la nature humaine capable du meilleur mais capable du pire aussi, en particulier de ne pas résoudre un certain type de problèmes.

Le couple constitué par Anthony Perkins, qui est un jeune officier, et sa femme : leur relation est particulièrement difficile du fait qu’ils ont un nourrisson. Effectivement, il y a des cachets qui devront être pris, bien entendu, aussi bien par les nourrissons que par tout le monde. Et là, il y a, je dirais, quelques scènes extrêmement émouvantes.

Autre scène extrêmement émouvante, c’est la rencontre entre Gregory Peck et cette femme incarnée par Ava Gardner, qui est donc une femme désabusée – qui boit beaucoup trop – et qui curieusement revient à la vie dans une discussion qu’elle a avec Gregory Peck, où elle est complètement décontenancée par le fait que, ce capitaine de sous-marin, quand elle lui pose des questions sur sa famille aux États-Unis, il parle de sa famille au présent. Il parle de ses enfants, de son fils en disant : « J’espère qu’il ira à telle et telle école », etc. alors qu’il est clair pour le spectateur – et pour elle aussi, et sans doute pour le commandant du sous-marin – qu’il est impossible de parler de ces personnes au futur puisqu’ils sont morts. Et il y a comme l’image d’une rédemption de cette femme qui ne croit plus à rien, et ce fait, justement, d’être en face d’un homme dont elle tombe amoureuse – et qui finalement tombera amoureux d’elle – le fait qu’il parle au présent de choses qui, en fait, n’existent plus.

Le film, comme je vous le dis, n’a pas eu un très grand succès, pour une raison évidente : on était à trois ans avant la grande crise des missiles de 1962 – qui, il faut toujours le souligner, aurait sans doute été très différente s’il n’y avait pas eu deux personnes assez remarquables dans leur manière de traiter les choses, M. Jack Kennedy d’un côté et M. Khrouchtchev, dont nous avons l’enregistrement des conversations dans la situation de crise – et on doit se dire qu’on a tous eu de la chance qu’il y avait deux personnes, je dirais, raisonnables, au bout du fil des deux côtés, ce qui nous a évité une catastrophe thermonucléaire.

On parle surtout du film depuis que la menace a diminué. Elle n’a peut-être pas diminué autant que nous l’imaginons : on sait qu’on a détruit pas mal de têtes nucléaires parce que ça fait partie d’un accord de dénucléarisation entre les pays qui possèdent l’arme nucléaire ; les tensions ont baissé dans la période qui a suivi la disparition du monde communiste de type soviétique. Malheureusement, elles sont en train de remonter. Vous le voyez, il y a probablement eu de véritables tentatives d’interférence dans les élections américaines, de la Russie. Il y a aussi, du côté des nations de l’Otan, une véritable tentative d’encerclement par l’Otan des pays qui représentaient l’ancienne Union Soviétique ; il y a des promesses qui n’ont pas été tenues ; il y a une situation délétère qui est en train de se reconstituer entre les deux pays. Le fait qu’il n’y ait pas de morts en ce moment – à part peut-être quelques empoisonnements d’espions ici ou là – est probablement lié au fait non pas que la guerre n’existe pas, mais qu’elle a pris la forme d’une guerre de type cybernétique, de prise de pouvoir à l’intérieur des systèmes d’élection, des réseaux électriques et ainsi de suite.

Comme je le disais tout à l’heure, pour commencer, les risques de guerre d’autres types ne sont pas inexistants – la guerre chimique a encore lieu en Syrie; les guerres biologiques sont préparées par différents types de pays. Nous disposons, mis à part l’arsenal thermonucléaire, d’autres moyens de destruction absolument massifs, sans parler, bien entendu, des accidents possibles. Des accidents possibles, c’est par exemple le départ d’une guerre généralisée à la suite d’un incident, d’une incompréhension, etc.

Je signale au passage un autre film – de 1970. Il s’appelle Colossus; c’est un film américain. Ce n’est pas un des quatre dont je veux parler – le thème se rattachant à d’autres thèmes. Dans Colossus, un incident a lieu au départ, dans une simulation d’attaque nucléaire dont on n’a pas dit aux acteurs sur le terrain qu’il s’agissait d’une simulation, un être humain, un Américain, refuse de pousser sur le bouton, alors que tous les signes indiquent qu’une guerre a été lancée – à l’époque, on est en 1970 – par l’Union Soviétique, et cela convainc les autorités de déconnecter entièrement les êtres humains de la prise de décision : ce sont des ordinateurs qui prendront les décisions sur la guerre de type nucléaire – je parle là du scénario de ce film de 1970.

Les Américains sont convaincus que, eux, ont une machine absolument, je dirais, inattaquable, qu’ils ont mis en place un ordinateur qui s’appelle Colossus – et ça renvoie à l’histoire de l’informatique parce qu’effectivement, un des premiers ordinateurs s’appelait comme ça – et on s’aperçoit rapidement que cette machine Colossus, en fait, est entrée en dialogue avec une autre machine – elle signale d’ailleurs qu’il y a une autre machine comme elle – et il se fait que du côté l’Union Soviétique, il y a là aussi un ordinateur auquel le pouvoir a décidé de confier la décision de démarrer ou non une guerre nucléaire.

Dans la suite du film, les êtres humains décident de lancer une guerre thermonucléaire qui n’a pas lieu et on essaie de comprendre ce qui a eu lieu. En fait, les deux ordinateurs se sont mis à connecter et ont empêché les êtres humains de déclencher véritablement la guerre : les ordinateurs, l’intelligence artificielle, s’est montrée plus intelligente que les êtres humains, et la conclusion est une conclusion glaçante – Je reviendrai à ce thème quand je vous parlerai de Terminator : les ordinateurs déclarent aux êtres humains qu’à partir de maintenant, et pour leur bien, ce seront eux qui prendront les décisions sur l’avenir de l’humanité. Et alors là – finale dans le style véritablement hollywoodien des années soixante-dix – l’être humain, l’ingénieur responsable de ça, dit à l’ordinateur : « Non. C’est là notre liberté qui prévaudra ! » Libre au spectateur de décider de ce qui se passera ensuite : si les humains veulent reprendre le pouvoir, au risque de déclencher à nouveau des guerres thermonucléaires, ou confier à l’intelligence artificielle le soin de prendre soin de nous.

Encore un mot donc sur On the Beach – un film dont on parle surtout maintenant – qu’on revoit d’abord avec plaisir, parce que ce sont de très grands acteurs, que le thème est un thème important, qu’on comprend pourquoi il était peut-être trop sensible en 1959 au moment où est sorti le film : ça disait des choses, je dirais, trop tristes ; il n’y avait pas d’issue. La scène finale, c’est dans Melbourne où il n’y a plus d’être humain. La caméra parcourt une place sur laquelle il y a encore un bandeau – qui a été mis en place, si j’ai bon souvenir, par L’Armée du Salut – qui dit « Frères, il reste encore un peu de temps » et nous savons que le temps est terminé ; le temps n’existe plus.

Alors je passe au film suivant : Terminator, un film a très grand succès, premier grand film de James Cameron, dont on connaîtra par la suite des films qui sont parmi les plus vus dans l’histoire du cinéma : bien sûr Titanic et Avatar, un film de science-fiction. Titanic, pour ceux d’entre vous qui ne l’auraient pas vu, est un film sur la lutte des classes et sur ce moment particulier, mis en scène dans la manière dont les classes supérieures traitent les autres sur un navire en détresse. Bien entendu, c’est extrêmement romancé, mais nous savons que certaines choses qui sont dites dans le film se sont véritablement passées de cette manière-là. Et une fois de plus, le thème de la séparation éventuelle de la société en plusieurs parties concurrentes, et en opposition.

Alors, Terminator : là aussi c’est un film qui a été extrêmement vu, et je ne pense pas qu’il y ait beaucoup d’entre vous qui ne savent pas de quoi il s’agit, mais je vais quand même le résumer – c’est possible. Le film se passe de manière contemporaine, et deux êtres ont été envoyé du futur, l’un pour tuer un être humain contemporain, l’autre pour le protéger. De quoi s’agit il ? Dans l’avenir, après une guerre nucléaire – dans un thème qui rappelle un peu celui de Colossus – les machines ont décidé de se débarrasser des êtres humains parce que les êtres humains ne sont pas capables de maintenir le monde en fonctionnement. Mais une rébellion humaine a lieu, et elle pourrait réussir et se débarrasser du pouvoir sur le monde d’un réseau, qui s’appelle Skynet et qui dirige, par l’intelligence artificielle, l’ensemble des machines, et essaie de se débarrasser, pour la survie d’un certain monde sur notre planète, des derniers êtres vivants.

Alors pourquoi y a t il une bagarre entre deux créatures venues du futur en ce moment ? Parce qu’une personne sera la mère du dirigeant de la rébellion, et donc les machines envoient de l’avenir une machine, un Terminator – qui est un androïde, qui est un robot à forme humaine, pour tuer cette personne avant qu’elle ne conçoive l’éventuel libérateur de la race humaine. Arrive également, au même moment, un être humain qui, lui, appartient à la rébellion et qui, bien entendu, va essayer de protéger la future mère de cet enfant qui sera le grand héros de la libération éventuelle. Et nous découvrons au cours du film que se développe une idylle entre la dame, Sarah Connor, qui doit être protégée, et le héros envoyé du futur, qui lui ignore encore, jusqu’au dénouement, qu’il sera, lui, le père de cet enfant qui apparaîtra par la suite et qui devrait sauver l’être humain.

Alors, le scénario ne montre finalement pratiquement rien – Comment appeler l’envers d’un flashback ? Un flashforward je suppose, un flash en avant – parce qu’on voit quelques petites scènes de bagarres qui ont lieu dans l’avenir entre les rebelles et les machines, mais sinon tout ça se passe dans notre environnement quotidien, et c’est essentiellement un film-poursuite où, je dirais, les surprises sont liées à la résistance, à la robustesse – à la résilience on dirait aujourd’hui – de ce robot qu’on peut détruire pratiquement entièrement et qui continue quand même à fonctionner – qui est une intelligence artificielle et qui est équipé d’équipements extrêmement sophistiqués. C’est un des premiers grands rôles de Schwarzenegger, où il est assez impressionnant d’ailleurs, et où le metteur en scène a dit que sa voix, son accent autrichien avait une dimension robotique qu’on a pu garder pour le film – même s’il ne prononce que cent mots en tout dans le film.

Alors même thème : nous avons, nous, produit des machines et ces machines se montrent plus intelligentes que nous, en particulier dans leur capacité à empêcher des guerres thermonucléaires qui nous menacent. Donc, premier thème, celui de On the Beach : nous avons créé des armes de destruction massive, et nous ne serons peut-être pas capables de nous empêcher nous-mêmes de les utiliser. Nous savons que c’est un équilibre de la terreur qui empêchait, à l’époque de la guerre froide, le déclenchement d’une guerre. Les machines que nous avons inventées, nous pouvons peut-être les rendre plus éthiques, nous pouvons peut-être les rendre plus raisonnables que nous-mêmes, et elles peuvent peut-être nous empêcher de nous détruire nous-mêmes, mais – comme dans le film Colossus – au prix de notre liberté, puisqu’elles nous diront, à l’avenir, ce qu’il faut faire, ou, version noire – je dirais, version « gothique » du même thème – les machines décident que nous représentons un trop grand danger, et qu’il faut nous éliminer.

Autre film, Elysium, sur un thème qui rappelle celui du roman de Vonnegut que j’ai mentionné tout à l’heure, Player Piano. Ah oui ! Je n’ai pas dit, pour ceux qui liraient le roman en français, que la traduction est très mauvaise et que, en particulier, même le titre n’a pas été compris par le traducteur – ou la traductrice : Player Piano, ça veut dire piano mécanique. Vous savez ce que c’est un piano mécanique ? C’est donc un piano, mais qui peut jouer tout seul, parce que il y a un moteur qui fait tourner une bande perforée – les mêmes bandes perforées qui avaient été utilisées dans les premières machines automatisées – le métier Jacquard qui permet de tisser – utilisées ensuite pour le piano et, on le voit aussi par exemple, pour les orgues de barbarie – quand on les voit encore ; des cartes perforées aussi, qu’on utilisera dans la première génération de l’informatique, qui permettent de lancer un programme. Player Piano, donc, ça veut dire piano mécanique. Dans la traduction, on appelle ça Le pianiste déchaîné, ce qui, bien entendu, n’a aucun rapport avec le titre, et qui, manifestement, n’a aucun rapport avec ce qui se passe dans le roman.

Donc, dans Player Piano, on nous montre un monde en train de se séparer entre ceux qui peuvent travailler sur la machine et ceux qui ne peuvent plus le faire, et qui deviennent deux populations distinctes. Je vais mentionner, avant de dire autre chose, que la conclusion de Player Piano, c’est qu’une rébellion a lieu, effectivement, par ceux qui trahissent la classe des ingénieurs et qui se rallient au reste du monde. Il y a une destruction de type luddite – c’est à dire une destruction de machines – qui a lieu. Dans leur destruction, les ennemis de la machine détruisent aussi toutes les machines qui aident à produire des produits alimentaires, si bien qu’il y a rapidement disette et que la population, victime d’un coup militaire, décide de relancer le machinisme parce que, en fait, on est allé beaucoup trop loin dans la destruction de la machine.

Dans le film Elysium, la séparation est allée encore bien plus loin, puisque nous avons deux mondes : sur la Terre – qui est une Terre absolument dégradée, où la pollution est constante, où la plupart des bâtiments sont endommagés – ne vit plus qu’une population de gens à la dérive, manifestement : les maisons sont des taudis, les gens qui vivent sur la Terre sont des misérables qui entretiennent encore quelques usines, et les riches vivent dans une station spatiale énorme, que l’on voit, et dans laquelle on a aménagé des parcs et des villas, et dans cette station spatiale, les êtres humains sont non seulement riches mais ils sont immortels, parce que des technologies existent pour les régénérer s’ils sont abîmés.

Alors, bien entendu, une rébellion existe sous une forme larvée sur la Terre, et en particulier, il y a deux drames que nous suivons, ceux de deux petites filles : dans le premier cas, c’est dramatique, il y a un échec, dans le deuxième cas, il y a réussite d’aller faire régénérer et guérir les enfants – la deuxième petite fille souffre de leucémie, je ne sais plus de quoi souffre la première – de la tentative de percer le barrage, d’aller sur cette station où vivent des êtres humains riches et immortels et de sauver deux enfants. La rébellion finira par réussir, et on changera le programme : tous les humains seront déclarés comme appartenant à la même espèce – et pourront donc devenir immortels.

Petit clin d’œil aux spectateurs dans ce film – qui est donc un film de 2013 : deux personnages doivent évoquer quelque chose aux êtres humains. L’un, c’est moins évident pour des Européens, mais le personnage de l’homme d’affaires méchant – qui est prêt à trahir la race humaine tout entière pour sauver l’élite qui vit dans l’espace – est un personnage qu’on a fait ressembler délibérément à M. Fuld. Vous ne connaissez peut-être pas ce nom mais c’était le dirigeant de Lehman Brothers. Vous le savez, la chute de Lehman Brothers, c’est un élément important dans notre histoire contemporaine puisque ça a déclenché la crise des subprimes dont nous vivons encore, d’une certaine manière, les soubresauts. Autre petit clin d’oeil aux spectateurs, et qui sera davantage sensible aux spectateurs français, le personnage de la dame dirigeante de la station spatiale – tout à fait machiavélique – jouée par l’actrice Jodie Foster, représente de manière tout à fait flagrante Mme Lagarde, ancienne ministre française des finances et qui dirige le Fonds Monétaire International, en ce moment. Petite blague du metteur en scène.

Le metteur en scène s’appelle Neill Blomkamp. C’est un Sud-Africain blanc, extrêmement critique de la politique qui a été appliquée dans son propre pays. Son film précédent, c’était District 9, un immense camp de réfugiés – qui sont des extraterrestres qui sont arrivés dans un grand vaisseau à la dérive et qu’on a mis dans un camp – ce qui représente manifestement la situation que l’on a bien connue en Afrique du Sud. Donc, si on demandait à Blomkamp si c’est de la science-fiction, il dirait sans doute « Non, c’est un film historique, ce n’est pas un film qui projette dans le futur. »

Elysium donc, deux populations : les êtres humains se sont partagés en deux groupes, et ces deux groupes sont dans une situation extrêmement différente, des sorts qui sont incomparables : les uns immortels et riches, et les autres à la dérive – des populations de lumpenproletariat pour utiliser une expression qu’on trouve chez Karl Marx – de prolétariat en haillons qui survit difficilement à la surface de la Terre. Résolution finale optimiste puisque tout le monde redevient humain et avec la possibilité de devenir immortel par la suite – donc un film optimiste – si l’on veut.

Un auteur qui s’appelle Peter Frase, qui est un sociologue-politologue américain, nous a proposé, dans un petit livre de 2015, quatre scénarios sur le futur, lui aussi. Ces quatre scénarios ne sont peut-être pas très intéressants de notre point de vue. L’un, par exemple, c’est le retour du communisme soviétique, dont je ne suis personnellement pas certain qu’il ait véritablement un avenir. L’autre, dont il dit beaucoup de bien – mais dont il n’arrive pas, de manière convaincante, hélas, à défendre la cause – c’est celui d’un retour à la social-démocratie telle qu’on a pu la connaitre dans les années cinquante, mais surtout, un des scénarios qu’il met en place, c’est encore, je dirais, une version davantage extrême de ce qu’on trouve chez Vonnegut, dans Player Piano, et dans le film Elysium, c’est à dire qu’il met en garde contre ce qu’il appelle la politique d’« exterminisme ». Son raisonnement est le suivant : on aura deux types de population, l’une considérée encore comme indispensable, et l’autre qui sera considérée, comment dire, comme non-nécessaire, pas indispensable du tout, la tentation existera pour les nantis de se débarrasser des autres.

Il faudra peut-être des rébellions pour que ce ne soit pas le cas, mais il est possible, dit-il, qu’on utilise des solutions d’élimination à l’échelle industrielle des populations. Et, nous dit-il d’une manière qui est tout à fait, à mon sens, à recommander : « Ne dites pas que cela n’aura pas lieu : ça a déjà eu lieu. » Là aussi, mettre en garde contre l’avenir, en nous parlant d’un futur qui a déjà existé. Il nous dit : « Ça a déjà existé, ça existe toujours, donc ne disons pas « Non, les riches ne voudront pas. Les riches – qui ont a leur disposition des machines parce qu’ils en sont propriétaires – ne se débarrasseront pas des autres, mêmes s’ils deviennent de véritables gêneurs. » Ça se passera peut-être.

C’est l’un des thèmes, d’ailleurs, de Player Piano, de dire que « celui qui ne travaille pas dans nos sociétés, nous avons beaucoup de preuves qu’il – ou elle – ne mérite pas le respect », parce que nous ne le respectons pas. Les exemples foisonnent : les gens qui sont au chômage et qu’on soupçonne de tricher systématiquement, etc. Les gens à qui l’on dit « Traversez la rue et vous trouverez un emploi » dans un monde où les emplois disparaissent, ils disparaîtront encore plus rapidement. Et pas seulement les emplois non qualifiés. Vous le savez, le numérique, l’ordinateur, l’informatique de type classique a fait disparaître surtout des emplois non-qualifiés – par la robotique – ou peu qualifiés – comme le logiciel qui a remplacé les sténodactylos. Mais l’intelligence artificielle va remplacer des gens qui sont considérés comme des grands spécialistes, des grands experts, des gens qui ont fait des bac plus dix, bac plus douze. Et donc, nous voyons maintenant l’intelligence artificielle en train de les éliminer. Quand un médecin oncologue, considéré comme un grand spécialiste, fait cinq pour cent d’erreur de diagnostic et que la machine de IBM n’en fait que un pour cent, on nous dira très rapidement qu’on ne peut pas se permettre, économiquement – en mettant entre parenthèses toute la souffrance humaine qui existe effectivement – la différence entre se tromper dans cinq pour cent des cas et un seul pour cent sur ce qui peut se passer, pour le pronostic d’une personne qui est malade du cancer – on nous dira très rapidement qu’on ne peut pas se permettre d’avoir encore le médecin qui puisse le faire.

J’ai eu l’expérience l’autre jour chez mon médecin qui me décrivait deux types d’examens possibles en me disant : « Celui-là est bien meilleur : il n’y a pas d’être humain qui interfère. C’est uniquement la machine qui fait le diagnostic. » Il me présentait cela comme une excellente nouvelle, mais nous savons ce que cela va représenter à l’avenir : non seulement la disparition des emplois non-qualifiés – qui a déjà lieu ou qui est en train d’apparaitre – mais la disparition des emplois que nous jugeons très qualifiés. Il n’y aura plus que les gens qui écriront les programmes informatique, et ceux qui s’occupent de la maintenance pour qui les vrais boulots seront garantis. J’ai attiré votre attention tout à l’heure sur la manière dont on traite déjà les gens qui ne sont pas bons en maths. J’espère qu’on ne tombera pas dans le cauchemar de M. Peter Frase d’« exterminisme » par rapport à des situations de ce type-là. Et si nous dégradons, bien entendu, l’environnement encore davantage que nous le faisons maintenant, la pression va augmenter et on nous dira – comme on commence à nous le dire – que nous sommes trop nombreux et que si nous ne voulons pas la guerre pour se débarrasser d’un certain nombre de personnes – vous le savez, nous sommes dans la grande commémoration de la guerre de 14-18 – la solution par la boucherie absolue – il faut bien traiter les problèmes d’une manière particulière.

Alors, le dernier film dont je voudrais parler – je voudrais laisser un temps de discussion important à la salle – un film de 2014, Interstellar de Chris Nolan, Chris Nolan qui a fait de très grands films que vous connaissez – c’est lui qui a relancé le personnage de Batman avec Batman Begins, The Dark Knight, des best-sellers au cinéma. Avant cela, il avait fait des films très très intéressants qui l’avaient signalé, comme Memento, un homme qui a perdu sa mémoire et qui s’écrit des notes pour retrouver plus ou moins le fil le lendemain matin, et qui est la victime de gens qui exploitent le fait que sa mémoire disparaisse chaque nuit. Un film glaçant. Truc cinématographique tout à fait extraordinaire, on nous présente l’histoire à l’envers : c’est du flashback dans du flashback dans du flashback, etc. Si vous n’avez pas vu ça, essayez de le voir. C’est donc de Chris Nolan, qui a fait récemment Dunkerque – qui a fait des choses très intéressantes. Il y a aussi un film – j’allais dire divertissant, mais ce n’est pas le cas parce qu’il s’agit d’une tragédie – Insomnia, avec des grands acteurs comme Al Pacino et Robin Williams dans des rôles dramatiques, l’histoire d’un détective qui ne s’y retrouve plus vraiment, parce qu’il est en Alaska où il ne fait jamais noir, et qui perd un peu le fil du fait de son insomnie. Vous l’avez sans doute vu parce que c’est un film qui a eu beaucoup de succès, mais sinon voyez le maintenant.

Alors, Interstellar, 2014 : C’est le scénario d’une Terre, d’un environnement qui se dégrade à une telle allure qu’il apparait que la seule solution possible pour l’humanité, c’est de changer de planète, d’aller ailleurs. Deux politiques sont mises en place simultanément : l’une de préparer l’humanité à partir dans de grandes fusées pour aller s’installer ailleurs, et pendant ce temps-là, un autre type d’entreprise : des vaisseaux ont été envoyé dans une autre galaxie – je vous expliquerai comment – qui essaient de trouver des planètes – parce que nous avons pu repérer des planètes qui pourraient être accueillantes – et un vaisseau part dans lequel se trouve, si j’ai bon souvenir, trente cinq mille personnes sous forme d’embryon qui pourront se développer dans un autre environnement. On apprend au cours du film que la solution qui consisterait à déplacer entièrement l’humanité à l’extérieur, en fait, on n’y travaille pas sérieusement, que c’est un peu une diversion. On apprend aussi dans le film qu’il y a peut-être moyen, si on trouve la solution dans l’avenir, d’envoyer l’information dans le présent pour utiliser quand même cette solution d’envoyer la population humaine ailleurs. Le film, c’est essentiellement la tentative de trouver, dans trois univers différents, un moyen pour les êtres humains de se trouver une planète de rechange. Le film se termine sur une vision optimiste où non seulement on trouve un autre environnement qui a l’air prometteur sur une autre planète, ailleurs, et où aussi, par un voyage dans le futur, on peut venir nous donner la solution qui permet le transport de tout le monde.

L’intrigue est un petit peu compliquée. Les critiques, en France en particulier, ont souligné qu’il fallait connaitre pas mal de physique pour comprendre l’argument même du film, mais l’argument, en fait, il est très simple : nous avons détruit une fois pour toute la possibilité pour le genre humain de continuer de vivre à la surface de la Terre. Il faut que nous en soyons conscients. Alors les deux autres solutions sont des solutions de rechange : emmener tout le monde ou n’envoyer qu’une partie de la population. Donc, il s’agit là d’un scénario semi-optimiste, puisqu’on a perdu la Terre comme notre environnement mais on trouve un moyen d’aller ailleurs.

Un autre scénario qu’on pourrait appeler semi-optimiste, c’est celui de notre remplacement total par la machine. Si on prend un point de vue, je ne dirais pas métaphysique mais pour voir les choses tout à fat de haut, en prenant de l’altitude, on pourrait considérer que d’autres êtres intelligents, ailleurs, pourraient se dire : « Cette espèce-là a réussi un miracle, c’est à créer son successeur, mais ce n’était pas un être de type animal à la surface de sa planète. » Ces gens diront peut-être : « Les conditions pour qu’une espèce comme celle-là vive à la surface de sa planète, c’était condamné à disparaître, ça ne pouvait pas durer toujours : réfléchissez au fait que ces êtres humains – qui ont conçu les machines qui les ont remplacés – devaient trouver accès à de l’oxygène pratiquement toutes les dix-quinze secondes, dans un air qui, par ailleurs, n’était pas pollué – c’est à dire avec des tas d’autres conditions sur ce qui ne pouvait pas se trouver dans l’atmosphère que ces gens inhalaient. Ces gens devaient boire de l’eau, de l’H2O, dans des conditions qu’ils appelaient d’ « eau potable », c’est à dire aussi des conditions extrêmement étroites par rapport à la qualité de cette eau. Cerise sur le gâteau – ces gens mangeaient des choses qui étaient ce qu’ils appelaient des « aliments assimilables », qui étaient, à la surface de leur planète, des choses très particulières – il y avait des tas de choses qui les empoisonnaient et qui ne leur permettaient pas de vivre. Des conditions extrêmement spéciales. Comment pouvez-vous imaginer que cela aurait pu exister sur le long terme, alors qu’ils n’ont pas pu maintenir cette situation au-delà déjà des centaines de milliers d’années durant lesquelles leurs ancêtres et eux-même ont vécu ?

Il est normal que la solution dans le long terme soit que ces gens – qui ont eu le génie d’inventer des machines qui ne dépendaient ni d’oxygène, ni d’eau, ni d’aliments assimilables – qu’ils aient inventé leurs successeurs, qui eux sont beaucoup plus robustes. Regardez : au moment même où ils ont commencé à disparaître, il y avait, sur la planète Mars, deux stations qui se déplaçaient là, qui vivaient pratiquement en autonomie et qui n’avaient besoin ni d’oxygène, ni d’eau, ni de quoi que ce soit d’autre – je crois qu’il y avait une petite pile atomique sur l’une de ces deux stations – mais elles prenaient essentiellement leur énergie à partir du soleil et continuaient de vivre là, indéfiniment. Au moment où cet animal appelé « homme » a disparu, le seul problème qui se posait véritablement encore, c’était que les machines se créent elles mêmes – qu’un robot crée un autre robot » – et là, nous le savons déjà, c’est un problème qui ne demande ni de l’intelligence artificielle ni des choses très sophistiquées, c’est un problème simplement de type industriel de fabriquer des machines qui construisent d’autres machines de manière autonome.

Donc, je dirais, un extraterrestre pourrait dire « De leur point de vue, c’était une solution semi-optimiste également – comme celle d’abandonner entièrement leur planète – de se créer des successeurs plus robustes. Et là, ils ont parfaitement réussi. » Il pourrait souligner aussi, peut-être, ce qui nous apparaît comme la difficulté – c’est à dire une intelligence artificielle plus intelligente que nous. Je vous rappelle quelques cas – et je vais terminer par ça – ce sont des expériences récentes : vous le savez sans doute, le Big Blue – un programme d’ordinateur de IBM – a battu les plus grands champions humains aux échecs – en particulier M. Kasparov, et ça, c’était encore dans les années 90. Pour le jeu de Go, qui est un jeu où il y a un très grand nombre de pièces qu’on peut mettre sur un échiquier plus compliqué, on nous a dit pendant des années que c’est un problème que les machines ne pourraient jamais résoudre – parce que ce qui permet à une machine de gagner assez facilement au jeu d’échecs, c’est sa capacité à se projeter dans l’avenir d’un certain nombre de coups qui pourraient être envisageables. Dans le cas du Go ce n’est pas possible, parce que le nombre de pièces est trop important et que même les machines les plus puissantes que nous pouvons créer maintenant n’ont pas la capacité d’envisager toutes les possibilités. Donc, gagner au jeu de Go demande ce qu’on appelle l’intuition humaine, qui est quelque chose d’assez mystérieux mais que la machine n’a manifestement pas. Vous le savez, un article disant absolument ce que je viens de dire a été publié encore dans la revue Wired – qui est la grande revue où l’on parle d’informatique et des choses de cet ordre-là – je crois que c’était en 2015 – et en 2016, le programme Alpha Go a battu les plus grands champions de Go – et il existe maintenant une nouvelle machine [Alpha Zero] qui bat Alpha Go à chaque fois. Pourquoi ? Parce que la machine Alpha Go avait appris à jouer au Go en examinant des quantités de parties entre des êtres humains, et la machine Alpha de la génération suivante [Alpha Zero] a appris simplement en jouant uniquement avec elle-même – c’est à dire qu’elle est devenue de plus en plus intelligente en jouant contre une machine de plus en plus intelligente.

Les programmeurs de cette machine qui a battu les êtres humains n’ont pas compris, parce que quand on leur dit « Comment avez vous programmé l’intuition à l’intérieur de la machine ? », ils disent « On n’a pas programmé l’intuition dans la machine : la machine a retrouvé d’elle-même ce que nous appelons l’intuition. » Encore plus récemment, une machine bat les plus grands champions de Poker. Là aussi, on demande aux programmeurs « Comment avez-vous appris à cette machine à bluffer ? » – puisque c’est central à la capacité pour un joueur ou une joueuse de poker de gagner – et là aussi, la réponse du programmeur c’est de dire « Je n’ai pas du tout appris à la machine à bluffer, c’est elle qui a trouvé elle-même comment il fallait gagner de cette manière-là ».

On avait découvert aussi, avec surprise quand on avait demandé à des intelligences artificielles de jouer les premiers jeux vidéo sur les machines Atari, il y en a un qui s’appelait en particulier « Casse-briques » – dont vous vous souvenez peut-être encore, où il s’agit pour une petite machine d’aller casser un mur de briques qui se trouve en haut – et très rapidement, la machine a trouvé une stratégie que la plupart des êtres humains n’ont jamais découverte, qui consiste, en fait, à jouer sur une ambiguïté du jeu en faisant un petit trou dans le mur, et par ce petit trou, d’aller casser le mur par en haut, ce qui permet d’aller beaucoup plus vite. Je vois encore la vidéo où le présentateur le montre à une assemblée de Geeks ou de Nerds – c’est à dire de spécialistes de ce genre de questions – qui sont épatés de voir que l’intelligence artificielle est tombée très rapidement sur cette solution qui avait échappé à l’être humain – probablement à partir d’idées que nous avons sur le fair play ou des choses qui ne se font pas, etc. Même chose pour le jeu de Go : la machine a trouvé facilement des stratégies auxquelles aucun joueur de Go n’avait jamais pensé, des choses qui paraissaient très contre-intuitives, comme nous le disons maintenant.

Alors, quatre films que je vous recommande de voir si vous ne les avez pas vus, quatre films intelligents, très très différents des romans que je vous ai mentionnés aussi. Je vais mentionner le nom d’une personne que vous ne connaissez sans doute pas, c’est M. Zamiatine, Ievgueni de son prénom, mort en 1937, qui est un auteur russe dont le roman s’appelle Nous ou bien Nous autres dans différentes traductions. Son livre, publié en 1920, avait été traduit pour la première fois en Français en 1929, mais il avait rapidement disparu des rayons des librairies. Il vient d’être re-publié, en 2017. C’est le premier livre qui pose, en fait, toutes ces questions que nous posons là, de la même manière que, d’une certaine manière, le film Metropolis avait, lui aussi, déjà posé pas mal de ces questions que nous nous posons maintenant sur les différents types de scénarios.

Alors comme je vous le disais d’entrée de jeu, il me semble que la culture populaire nous dit beaucoup de choses : ce qu’on a appelé science-fiction, c’est souvent de la fiction spéculative – c’est une façon pour nous de réfléchir à nos problèmes en nous posant dans des cadres qui nous dérangent un peu parce qu’ils ne sont pas familiers, et où justement, des choses qui nous sont familières sont retirées de l’image et qui nous permettent avec peut-être davantage de clarté – comme si on représentait en-dehors du paysage, sur fond blanc – des situations qui sont les nôtres maintenant.

Dans les cinq autres sessions de ce cycle, j’entrerai dans le détail de toutes ces choses, pour voir comment la situation se présente véritablement à nous. Il ne me semblait pas une mauvaise approche de commencer par de la fiction, commencer par des choses que nous avons connues, qui nous sont peut-être familières – parce que nous avons peut-être vu ces films au cinéma – ou bien que, de manière alternative, je vous encourage vivement à aller les voir.

Alors, merci pour votre attention. Nous avons à peu près une vingtaine de minutes pour avoir une discussion sur ces sujets que j’ai essayé de soulever pour vous.

Question du public

L’intuition, c’est une émotion. Une machine n’a pas d’intuition.

PJ : Oui, effectivement. Quand on a commencé à travailler en intelligence artificielle, c’était, je dirais, dans les années cinquante, soixante. Moi, j’ai travaillé dans ce domaine à une époque que l’on considère comme l’IA pionnière : c’est à la fin des années quatre-vingt où j’ai participé, pendant deux ans, à un projet d’intelligence artificielle qui s’appelait Connex, dans le cadre de British Telecom, l’équivalent de France Télécom en Angleterre. J’ai écrit un livre [Principe des systèmes intelligents] sur ma réflexion à l’époque, à propos d’un logiciel que j’avais produit. Effectivement, à cette époque-là, on ne parlait d’intelligence artificielle qu’en termes de logique. Mes collègues lisaient surtout des livres de mathématiques. Ils lisaient aussi des livres de logique formelle où, effectivement on essaye d’appliquer des règles, en imaginant qu’on pourrait résoudre tous les problèmes d’intelligence artificielle par l’application de règles. À l’époque, il y avait une voie qui paraissait prometteuse qu’on appelait les « systèmes experts », et ces systèmes experts, c’était des grandes bases de données, de règles de type logique qu’il fallait enchaîner d’une certaine manière et qui allaient se combiner. Cette approche est apparue très rapidement comme n’étant pas la bonne. Ce qui faisait l’originalité du projet que j’avais, moi, mis au point – qui s’appelait ANELLA – c’était de déjà travailler dans la perspective d’une machine émotionnelle, d’une machine qui ne soit pas dirigée uniquement par des mathématiques et par de la logique, mais qui soit dirigée par des émotions à proprement parler. Alors, c’est une voie qui n’a pas encore été abordée. Ce qui marche en ce moment, essentiellement, c’est ce qu’on appelle des réseaux neuronaux, c’est à dire qu’on a essayé de copier le fonctionnement du cerveau humain.

On a d’abord cru, dans les années cinquante, soixante, que le cerveau humain était une machine, et qu’il ne fonctionnait pas très très bien peut-être, d’un point de vue purement logique. Si on incluait de la logique, c’était la solution, la voie royale vers l’intelligence artificielle. Les réseaux neuronaux on a compris plus ou moins comment ça marchait maintenant, et on a commencé à utiliser ça de manière systématique et on s’aperçoit, en ce moment, que c’est la technique principale qu’on peut utiliser pour l’intelligence artificielle. Les réseaux neuronaux peuvent faire répondre à des problèmes de type inductif, comme on dit : ils peuvent généraliser, ils peuvent également faire des déductions, mais l’inconvénient pour nous, c’est que ce sont des boîtes noires, c’est à dire que ce sont des systèmes qui contiennent énormément de noeuds qui interagissent d’une certaine manière, qui enregistrent une information, qui la condensent, et qui peuvent produire des décisions à partir de cela. L’inconvénient de cette approche-là de l’IA, c’est que nous perdons rapidement le fil de ce qui se passe exactement à l’intérieur.

Alors, on va peut-être faire la solution que moi j’avais proposée à l’époque, c’est à dire de mimer véritablement une machine de type émotionnel. Alors, le danger, c’est qu’on arriverait à une intelligence artificielle qui serait tellement proche de nous, qui ressemblerait fort à ce qu’on voit dans une série télévisée qui s’appelle Real Humans, où on est dans une société où les robots interagissent déjà véritablement avec nous, ou bien dans un autre type de situations, dans un autre film que je n’ai pas mentionné, qui est un film récent de 2015, de Alex Garland qui s’appelle Ex Machina, où un concepteur de robots a une machine qui le dépasse très rapidement, mais là, pas sur le plan, je dirais, intellectuel, en faisant des choses que l’être humain ne comprend plus, mais justement, elle comprend si bien le fonctionnement émotionnel de l’être humain que cette robote parvient à manipuler les êtres humains en utilisant leurs sentiments purement et simplement pour les rouler – pour lui permettre de s’échapper de l’endroit où elle a été conçue.

On ne va pas oublier, bien entendu, la logique en intelligence artificielle – parce que c’est un outil que nous connaissons bien, maîtrisons bien – mais ça a été un peu une voie de garage. A la fin des années quatre-vingt, on n’avait mis l’accent que sur ça. Il y avait eu, d’ailleurs, malheureusement, des grands penseurs – MM. Seymour Papert et Marvin Minsky – avaient cru pouvoir dire que l’approche en termes de systèmes de réseaux neuronaux ne marcherait pas et ont découragé les gens d’utiliser ça, et en fait, pour que le système marche bien, on va sans doute reprendre cette idée de faire la machine émotionnelle, c’est à dire qu’elle serait véritablement comme nous.

Mais là arrivent les problèmes, juridiques et autres, nous allons d’ailleurs les évoquer ici même, demain : il y aura une discussion très intéressante sur la différence entre un être artificiel éthique et un être comme nous, éthique, et la solution sera peut-être qu’il est possible de rendre un être artificiel beaucoup plus éthique que nous ne le sommes. Nous saurons la réponse, peut-être, entre midi et 14h, dans la salle qui est là, demain.

Je crois que nous allons utiliser dorénavant l’ensemble des approches possibles, la logique et les mathématiques d’un côté – les mathématiques, évidemment, ne sont pas absentes des autres types d’approche parce qu’il faut créer des modèles de type mathématique, mais l’idée qu’on pourrait directement aller des mathématiques à la logique formelle et de la logique formelle à la machine intelligente, ça je dirais, c’est un angle qu’on a épuisé assez rapidement. Par exemple, la machine Deep Blue – qui gagnait aux échecs – a pu utiliser de la logique pure. Pour les échecs, on n’a pas besoin de l’intuition humaine, on n’a pas besoin de la capacité au bluff. Les réseaux neuronaux, eux, ont permis de faire cela.

Je ne suis pas sûr que l’émotion apparaîtra spontanément dans la machine, simplement à partir du réseau neuronal, mais là, ça ne pose aucune difficulté – je l’avais déjà fait à la fin des années quatre-vingt – de simuler dans la machine de l’émotion. Alors, on me dit « Oui mais, c’est de la simulation » mais vous le savez bien, ce mot de « simulation » signifie simplement que c’est une machine qui le fait, ça n’a pas de signification au delà de cela. Quand c’est nous, on dit que ce n’est pas de la simulation, quand c’est une machine on dit que c’est de la simulation. C’est un peu comme ce mot d’intuition, ou quand on dit « la machine aura besoin d’une conscience », deux possibilités : la conscience émergera dans une machine – c’est une possibilité – ou bien, et c’est ma conviction personnelle, une machine peut être parfaitement intelligente sans avoir de conscience, simplement parce qu’elle fonctionne bien.

A mon sens, il y a une erreur de notre part : nous croyons trop que c’est notre conscience qui nous dirige entièrement, et qui nous permet, voilà, d’exercer notre volonté, qui nous permet de mettre en acte les décisions que nous avons eu l’intention de mettre en oeuvre, etc. et là c’est probablement ma formation en psychanalyse qui me fait douter du fait qu’on ait véritablement besoin de la conscience pour faire fonctionner des êtres parfaitement intelligents. D’ailleurs, quand j’avais mis au point ce programme ANELLA pour les British Telecom, Associative Network with Emergent Logical and Learning Abilities, donc Réseau associatif à propriétés émergentes de logique et d’apprentissage, c’est ça qui apparaissait assez rapidement : quand on donnait à la machine le moyen de simuler l’émotion, la logique et l’apprentissage venaient automatiquement. La machine émotionnelle voulait apprendre davantage, elle posait des questions et emmagasinait les nouvelles informations, et la logique, très bizarrement, la logique apparaissait spontanément dans la machine qui réagit de manière émotionnelle. Donc, la machine, mon petit système, avait inversé la perspective qui est la nôtre, que nous appliquons la logique et nous l’appliquons peut-être de manière imparfaite. Non, la logique émerge de manière spontanée chez nous.

Alors, une petite anecdote qui est vraiment amusante : on considère que depuis qu’Aristote a mis en place les règles de la logique, depuis qu’il les a décrites – c’était d’ailleurs Kant qui l’avait dit à la fin XVIIIe siècle, Hegel l’avait dit au début du XIXe siècle : « On n’a rien pu ajouter à Aristote ! ». Et là, spontanément mon petit système ANELLA trouve une nouvelle figure de syllogisme à laquelle personne n’avait pensé, du type suivant : Rex a une niche ; une niche est un abri ; conclusion : l’abri de Rex est une niche. Et ce n’est pas un syllogisme – parce qu’il y a un génitif qui s’introduit – mais c’est une conclusion logique de la disposition des mots dans la phrase. C’est à dire que, déjà en 1987-88, une petite machine intelligente qui mimait l’émotion avait trouvé une figure de syllogisme qui n’existe pas chez Aristote, dont tout le monde considère qu’il avait épuisé entièrement le sujet. J’espère que j’ai répondu à votre question.

Question du public

Un problème qui me soucie, c’est par rapport aux investissements : ces investissements ne sont pas le fait de n’importe qui, de n’importe quelle entreprise. C’est quand même quelque chose qui relève de la domination quelque part, comme les premières machines, en fait, des Luddites. Je pense que cette question n’est pas vraiment posée actuellement. C’est Google qui investit le plus, je pense. L’investissement des GAFAM est dix fois supérieur à ce que peuvent investir les états, par exemple.

PJ : On dit parfois GAFAMI : c’est Google, Apple, F pour Facebook, A pour Amazon, on peut ajouter Microsoft et IBM pour faire GAFAMI. En fait, ce ne sont pas eux qui investissent le plus : c’est la défense nationale dans l’ensemble des pays qui dépense beaucoup plus d’argent sur ces questions-là encore que les autres. Aux États-Unis, le principal financeur – et sans doute le premier au monde – c’est la DARPA, le département de recherche de l’armée américaine.

Récemment, quand j’ai regardé qui, dans les projets, s’intéresse à mettre l’émotion dans la machine, c’est, bien entendu, la DARPA. Les robots les plus avancés, c’est la DARPA qui a fait avancer ça au départ. Et là, on retombe dans le scénario de On the Beach, du Dernier rivage, c’est que ce sont les armées dans les pays qui dirigent cela.

Je me suis retrouvé l’année dernière, en 2017, à une réunion d’économistes à Aix-en-Provence et j’étais à côté de Mme Buzyn, qui était la ministre de la Santé, et dans sa conclusion, à la fin de notre panel, on lui demande quelle était la chose qui lui parait important de dire, et elle dit « Sous mon ministère, l’homme augmenté, la femme augmentée n’aura pas lieu. Je ferai en sorte que cela n’ait pas lieu ». Quand mon tour est venu, j’ai dit « Madame la ministre, je suis convaincu que sous votre autorité, l’homme et la femme augmentés n’auront pas lieu, mais dans ce que nous avons entendu par ailleurs, le soldat ou la soldate augmentée aura lieu ». Parce que l’argent est là et dans ces domaines-là, pour des raisons qui sont, je dirais, légitimes, de type « Sur des questions de défense nationale, on ne vote pas » ou « Si on est dépassé par d’autres, on est perdant », la question des comités d’éthique se pose tout à fait autrement qu’ailleurs. On peut, sur des questions de médecine, demander à des spécialistes de l’éthique de se réunir autour de telle ou telle question, mais dans un commandement militaire, qui réfléchit à ces questions, quand on vous dit « les autres sont déjà en avance par rapport à ça et ils n’ont pas nos scrupules, ils n’ont pas nos résistances à ceci ou cela », la question se pose en de tout autres termes.

Quand je pense au fait que nous vivons dans un monde où les civilisations sont extrêmement différentes et où la représentation de l’homme et la femme comme étant des instances d’une représentation transcendante – c’est-à-dire des représentations produites par un dieu qui nous a donné notre apparence et notre équipement moral et autre – qui nous donnent, je dirais, un cadre – encore nous, même si nous n’allons plus à l’église -, un cadre de réflexion dans lequel poser des questions éthiques, que en Extrême-Orient – et ce n’est pas une critique que je fais en disant ça – cette image-là est absente.

Sur toutes ces questions d’amélioration de l’être humain, de perfectibilité, de nous rendre encore meilleur sur ceci ou cela, il y a, je dirais, des préventions – qu’on peut appeler aussi des préjugés, des principes, ça dépend comment on les regarde exactement – qui n’existent pas dans la pensée extrême orientale. On a toujours été là dans un monde sans véritable transcendance. Il y a eu une influence du bouddhisme en Chine, mais qui est une influence relativement mineure. C’est surtout au niveau de la superstition – on se représentait les ancêtres comme encore interférant avec nous – mais il n’y a pas de véritable cadre dans lequel penser la question de la perfectibilité, du perfectionnement. On le voit, en ce moment, sur des questions de génie génétique où le Japon, la Corée, la Chine avancent sans se poser un grand nombre de questions que nous nous posons.

Nous le savons par les situations de type « guerre froide », chacun peut imaginer que l’autre a déjà de l’avance, et qu’il est justifié comme, vous le savez, comme des insectes qui se disputent avec des plantes qui vont produire un nouveau produit qui va essayer de détruire l’insecte, et l’insecte trouve une nouvelle enzyme qui lui permet d’attaquer encore la plante. Il y a des escalades qui sont possibles, tout simplement à partir de représentations que l’autre, par exemple, n’aura pas les scrupules que nous avons nous, et que donc nous ne pouvons pas nous permettre de conserver les scrupules qui sont les nôtres.

Question du public

Vous parliez d’un exemple où la machine prévient la guerre nucléaire, mais l’inverse existe aussi : il y a des films où c’est la machine qui décide de déclencher la guerre justement pour préserver l’humanité, et du coup, ça pose cette question : la machine apprend d’elle-même, mais qu’apprend-elle ? Vous parliez de psychanalyse : à quel moment la machine apprend à se faire plaisir dans sa prise de décision ?

PJ : Oui, on peut imaginer qu’une machine émotionnelle ait ses propres satisfactions, ses propres projets, des choses qui la dérangent, etc. La difficulté majeure, on en parle sous le nom de singularité, c’est à dire le moment où, comme dans le film Colossus, nous ne comprenons plus véritablement pourquoi la machine a pris sa décision, mais nous sommes toujours d’accord que c’est une bonne décision.

Il y a une image dans la littérature sur le transhumanisme qui est une image excellente : il faut imaginer une situation où un chimpanzé se trouve dans une cage dans un zoo et où il y a deux personnes du zoo qui sont en train de discuter entre elles s’il faut transférer le chimpanzé d’une cage dans une autre. Le chimpanzé n’a pas la moindre notion de ce qui est en train de se passer, il ne comprend rien : Il ne comprend pas la conversation, il ne sait pas quel est l’enjeu. Nous pouvons imaginer, dans un avenir rapproché, la situation où deux machines conversent entre elles, et où nous n’avons pas la moindre notion de quoi elles parlent véritablement, mais nous continuons à leur faire confiance parce qu’elles prennent des bonnes décisions et que nous avons toujours cette représentation que, finalement, c’était un programmeur ou une programmeuse qui, au départ, a mis les choses en route.

C’est déjà Norbert Wiener, dans les années cinquante, qui parlait d’un petit programme qu’il avait écrit en faisant quelques lignes, et qui disait déjà, à cette époque-là « J’étais étonné que ce programme fasse des choses auxquelles je n’avais pas pensé ». Et l’exemple que je viens de donner moi-même, cette machine qui trouve une nouvelle forme du syllogisme alors que je lui ai rien dit de particulier pour essayer de le trouver, simplement parce qu’il y avait un certain nombre de configurations et qu’elle est tombée sur cette configuration-là parmi les autres.

Question du public

On parle de machines, mais ces machines ont besoin d’énergie pour fonctionner. Finalement, dans les quatre films que vous avez cités, je me demandais si finalement il y avait une sorte d’impensé ou d’évidence dans les quatre situations. On a l’impression qu’il y a une énergie qui est là, un trop-plein d’énergie – on a des machines qui vont et qui viennent, qui traversent le temps, qui traversent l’espace, un espace-temps qui n’a pas de limite… Donc, ça nous fait effectivement quatre scénarios différents.

Est-ce que, dans ces films-là, effectivement, l’énergie a avancé ? Il y a abondance, on ne se pose pas la question – et du coup, est-ce que vous auriez en tête un cinquième scénario qui serait celui d’une énergie abondante, ou d’une absence d’énergie ?

PJ : Dans les cas de guerre thermonucléaire, on parle de l’hiver nucléaire, ce qui est la situation où l’énergie principale qui nous parvient, celle du soleil, ne nous parvient plus, et donc détruit toute vie animale, toute vie végétale, etc. – ça, j’en parlerai pas mal par la suite. Sinon, c’est la question, non seulement de la description de notre planète mais aussi de la fin probable des sources d’énergie considérables qui nous ont permis de créer de la néguentropie – c’est à dire de l’organisation, là où il n’y en avait pas.

Notre histoire pourra peut-être être résumée par une espèce extraterrestre disant « C’est une espèce qui est tombée sur une source quasi illimitée d’énergie à son échelle – d’abord le charbon et puis le pétrole – et qui s’est saoulée avec ça, et puis s’est réveillée le lendemain matin avec la gueule de bois, parce qu’il n’y en avait plus ».

L’énergie, c’est une perspective que les physiciens utilisent en analysant le sort de notre espèce. C’est une perspective importante, et on pourrait – en mettant un peu entre parenthèses notre volonté d’êtres humains – décrire ces processus par lesquels nous sommes passés comme un problème d’énergie à distribuer d’une manière ou d’une autre, d’accès à cette énergie. Nous savons que la grande difficulté dans l’immédiat, pour ce qui est du réchauffement climatique, c’est de limiter l’effet des gaz de de serre, mais non seulement ça – j’y reviendrai, bien entendu – mais d’essayer de renverser la vapeur. Parce que même un arrêt serait vraiment dangereux dans la mesure où nous sommes sur notre lancée par rapport à nos mauvaise habitudes.

Je vois qu’on approche de l’heure. Je prends une dernière question.

Question du public

Est-ce que, dans votre réflexion d’anthropologue et dans cette question d’urgence, vous envisagez un peu ce que j’estime être une sorte de crise du régime de la vérité depuis que la relativité est généralisée, les développements énormes des statistiques et des probabilités, et l’introduction de l’indécidabilité dans la physique quantique qui, aujourd’hui, agite beaucoup le monde du développement de nos machines informatiques avec, en fait, des réseaux neuronaux qui ne permettent pas une reproductibilité de leurs résultats et nous dépassent dans leur rendu d’information, le deep learning qui prétend trouver des régularités sans qu’aucun programmeur n’ait explicité l’ensemble de règles – et là je vous rejoins : j’ai vécu aussi la période des systèmes experts où quand on empilait trop d’expertise, on obtenait des systèmes de règles qui ne permettaient pas de faire des syllogismes vérifiables. Est-ce que vous voyez actuellement, dans les différentes recherches sur le machinisme, émerger véritablement un mode de relation anthropologique correct dans cette crise de la vérité, de la vérifiabilité ?

PJ : Est-ce que vous êtes familier des travaux de Naftali Tishby ? C’est quelqu’un dont on parle depuis quelques mois au maximum, c’est un chercheur israélien qui est un spécialiste de la – je ne retrouve plus l’expression – de simplifier de l’information, de simplifier un ensemble de données en essayant de perdre le moins possible d’information – J’oublie comment on appelle ça de manière technique [compression] – et cette personne est tombée sur la difficulté qu’on a à expliquer les réseaux neuronaux et il est venu avec les choses sur lesquelles il travaillait lui, et il a vu qu’il avait là la grille de lecture nécessaire.

Pouvoir classer, pour une machine, pour un réseau neuronal, c’est essentiellement perdre de l’information pour arriver à un diagnostic – qui peut être un simplement mot, de dire « c’est un chien » – mais ne perdre que l’information qui est non-pertinente à chaque étape de la réflexion.

On retrouve des exposés de lui, des articles dans des revues scientifiques, mais aussi quelques excellentes vidéos de lui – il y en a une particulièrement intéressante pour nous, je dirais, d’un point de vue sociologique – et politique aussi : c’est un exposé qu’il fait à l’Académie des sciences de Russie devant un auditoire de jeunes informaticiens tout à fait passionnés, dont on peut même voir les visages – et voir qu’il s’y passe des choses. Je crois qu’on est en train de comprendre ce qui se passe dans un réseau neuronal, et grâce en particulier à lui, il y aura sûrement d’autres gens qui viendront à la rescousse et que donc, le caractère « boîte noire » va disparaître d’une certaine manière. Je vous dis, c’est récent. On parle de ses travaux, je dirais, depuis six mois, pas davantage.

Bon, je crois qu’on va arrêter là. Nous avons dépassé un peu l’heure. Merci pour votre présence [applaudissements], merci pour l’attention qui est la vôtre.

Partager :

28 réflexions sur « Université catholique de Lille, « Déclarer l’état d’urgence pour le genre humain ? » (1 de 6), Quel scénario pour les années qui viennent ? – Retranscription »

  1. Bonjour !

    Juste une petite question de « pas bonne en maths » :
    « on passera à un monde de plus en plus où les seuls emplois qui seront encore présents seront pour les personnes qui travailleront pour le numérique, pour l’intelligence artificielle – soit pour faire de la maintenance, soit pour produire des programmes, etc. etc. »

    Ma question : est-ce que le numérique (et IA) produira les cultures, l’élevage, la construction de maisons & bâtiments, l’entretien de ces bâtiments et voix de circulation, l’enseignement, la puériculture, la philosophie, l’art, la poésie, le théâtre, la chanson, la danse…… etc. etc. ?
    Je sais qu’on pourrait très certainement créer, confectionner et commercialiser vêtements et accessoires de mode par IA, même si je trouve cela flippant pour plusieurs raisons, notamment le fait que l’être humain n’est pas qu’un corps à habiller mais un être sensible empreint de désirs et d’émotions et pour lequel s’habiller peut prendre plusieurs sens : se protéger, séduire, se camoufler ou se cacher, se mettre en valeur ou se distinguer, se conformer à un groupe, voire se conformer à son propre rêve ou sa perception idéalisée, etc.
    Je sais aussi qu’on peut dès à présent faire de l’art numérique mais pour autant des artistes provoquent ou programment des « erreurs » (je ne trouve pas un mot qui convienne n’étant pas mathématicienne ni programmatrice – dieu m’en garde !-) laissant la place au hasard de la déformation de ce qui est (si on veut bien admettre que le hasard existe), ce qui à mon sens permet que cela reste de l’art.
    Je sais aussi qu’il existe des robots pour construire des façades de maisons ou d’immeubles.
    Je sais encore que les cultures maraîchères peuvent se prévoir par IA et qu’on peut planter, arroser et cueillir avec des robots.
    Mais malgré cela, pour tant d’autres choses, est-ce si sûr ?
    Doit-on se résigner à l’accepter comme si c’était inévitable et organiser une société en fonction de ce probable « inévitable » ?

    Autre question qui en découle :
    L’inévitable existe-t-il vraiment (ou toujours) ? ou est-ce un concept inventé de toute pièce pour rationaliser nos peurs et/ou pour les exploiter ? (dans ce cas, qui les exploitent ou exploiteraient ?)

    Dernière question (référence à « Real Human ») si on parvenait à fabriquer un robot à 100% (ou même 95%) semblable à l’humain et capable de tout faire à sa place, ne retomberions-nous pas dans les mêmes problèmes qui ont motivé la création de robots ? (c’est d’ailleurs une question posée indirectement dans cette série)

    (je n’ai pas lu toutes les questions du public)

    1. Vous avez tout à fait raison de ne pas aller vers une « projection bête » concernant le remplacement des jobs par les machines/les IA, nous mettant au chômage tous comme les tisserands de Lyon.

      Chaque innovation déplace un peu tout le système mais certaines le déplacent fortement (les smartphones en lien avec un « cloud » pour prendre la dernière grande innovation évidente pour tout le monde). On est donc bien en mal de faire du prédictif, on ne sait pas laquelle des prochaines innovations va déplacer quoi, même avec Attali .. et même avec Jorion !
      Ce qui ne s’est jamais passé non plus, c’est une ère de stagnation démographique (Taiwan : 1 enfant par femme brutalement à partir de 2005 en qqs années, d’autres pays d’Europe plus progressivement), et aussi, dans les zones assez riches (Occident et qqs centres urbains en ex-Europe de l’Est, dans toute la Chine, à Dubaï etc.), une ère de primat de la propriété immobilière qui évoque un peu les temps féodaux. Serf=locataire de grande banlieue ou du 93 type Clichy-s-bois ? je vous laisse le choix.
      Cette importance de l’héritage (et des inégalités) va jouer de façon à biaiser l’effet sociétal de la baisse du travail. On va avoir des travaux liés à des intensités capitalistiques décroissantes dans les zones où la pauvreté se réinstalle, tandis que les zones riches (en peau de léopard) vont faire tenir une certaine demande assez longtemps, en service et en objet de haut de gamme et en soin (mix des deux, le biomédical que je connais un peu par exemple).
      Je me demande même si l’illibéralisme ambiant (Orban et Boslonaro, Trump et Abe) n’est pas une ruse de l’histoire dans cette affaire: plutôt que de gérer une situation d’érosion lente d’une classe par une autre, les illibéraux ont déjà trouvé un moyen de mettre en avant une classe riche en agitant assez le Kaa (serpent hypnotiseur) médiatique pour que la classe pauvre et moyenne soit embobinée (retournant les questions sociétales notamment) et ne voit pas qu’on la pompe pour quelques uns. Même le Venezuela entrerait dans cette façon de faire, mais d’une façon extrême et caricaturale, la malédiction du pétrole jouant à plein pour faire aller les curseurs en butée sur un peu tous les paramètres.
      Pas très poétique ce que je vous dis et pourtant, je pense que vous voyez juste avec cet aspect « poétique/artistique » : il offre le recul pour voir venir les « déplacements innovatifs » avec du recul. Pour gratter sous la croûte facebook twitter, etc.
      C’est un peu comme les antennes du chat qui vont voir les vibrations pertinentes avant que les autres n’aperçoivent le reste de la scène.

      1.  » (…) nous mettant au chômage tous comme les tisserands de Lyon.  »

        Certes les tisserands de Lyon ont disparu mais ce n’est pas pour autant que les tisserands n’existent plus. Ils ont été déplacés où la main d’œuvre est moins coûteuse.
        Donc, le problème du déplacement pourrait ne plus exister avec la robotisation généralisée. Mais les programmeurs mathématiciens auraient-ils cette sensibilité, ce talent, ce savoir faire sensible qui fait que des associations de couleurs par fils de trame ou de chaîne n’ont pas le même résultat selon les textures des fils, selon les touchés de la matière, les reflets, les effets d’absorption de la lumière faisant ressortir une couleur plutôt qu’une autre, etc. ?
        Déjà on voit de superbes impressions numériques utilisant la 3D mais sur des matières simples type toile, et sur 1 ou 2 ou 3 qualités seulement (ex coton, polyester ou viscose) alors qu’une même impression n’a pas le même rendu selon texture, qualité & plombant du tissu et type de fils (retors, double retors…) utilisés pour le tissage, etc. Un technicien ou mathématicien saurait il avoir cette sensibilité s’il n’est plus en contact direct avec la matière ?
        Pour moi, cela est purement et simplement la disparition de l’art pour la banalisation, la standardisation, et en cela le ratatinement du cerveau humain réduit à ne plus savoir que calculer, dénué de sensibilité.
        Brrrrr ! Glacial ! Quelle pauvreté !
        J’ai connu il y a longtemps un océanographe passionné par la mer et travaillant pour Cousteau qui a quitté sa profession tant il n’en pouvait plus de n’être que sur un ordinateur sans jamais plonger. C’est un excellent exemple pour montrer à quel point la généralisation du numérique et IA promet de la frustration généralisée !

      2. J’ajoute :

        Quels sont les points communs entre les animaux et l’humain ?
        Et par déduction quel est la seule réelle spécificité de l’humain ?
        Je commence la liste  de ce que savent faire hommes et animaux :

        – produire, fabriquer ? Nombreux animaux savent fabriquer : nids, abris, barrages…
        – calculer ? Pour fabriquer ils savent évaluer un poids, une longueur, une quantité suffisante à leur besoin sans même avoir inventé les nombres…
        -se soigner ? Ils savent trouver plantes ou insectes pour se soigner, ou jeûner, ou se mettre provisoirement dans des abris ayant certaines conditions régulatrices…
        -enseigner, éduquer ? Ils savent transmettre…
        -cultiver, faire de l’élevage ? Plusieurs insectes cultivent ou élèvent d’autres insectes pour leur qualité nutritive…
        -faire des réserves ? Très nombreux font des réserves…
        -jouer ? Ils jouent tous…
        -simuler, paraître ? Nombreux savent se déguiser, se camoufler, simuler, ruser…
        -rire, pleurer, ou se mettre colère …
        -s’émouvoir, s’entraider …
        -gouverner, diriger …
        Combien d’autres ? La liste est très longue….
        Ce que découvrent tous les jours les scientifiques comme points communs est impressionnant..

        Mais l’art ? A-t-on vu des animaux artistes ? Art primitif, art populaire, art artisanal, art décoratif, art des Maîtres… Cet art sensible lié au tactile, à l’émotionnel, à la sensibilité, à l’intellect humain…
        Or la robotisation (et l’IA) implique la standardisation, la vulgarisation, la banalisation. En détruisant l’erreur, les maladresses ou le hasard, l’IA ne peut rien découvrir ; il ne peut qu’améliorer ou modifier ce qui existe déjà dans les savoirs faire humains.
        Qui n’a pas besoin d’art même s’il s’en défend ou croit pouvoir s’en passer ?
        Personne d’humain. La preuve le nombre croissant de visites dans les palais, châteaux ou belles demeures, cathédrales, monastères, dans les musées, dans les parcs composés artistiquement, ou les pyramides et muraille de Chine.. Et combien même parmi les incultes sont sensibles à la grande musique ! Ou même combien de touristes dans les villages anciens avec leur style spécifique ancestral, dans leur pays ou dans les fins fonds de pays lointains où subsistent des arts anciens ou primitifs, ou dans les grottes plus fascinés par les peintures rupestres que par les stalactites(mites) naturelles…. !
        Pourtant tous savent que ces arts splendides ont pu être développés grâce à l’argent des puissants qu’ils ont gagné bien souvent en exploitant pauvres ou esclaves ; ou a contrario par des pauvres, démunis, archaïques, privés de superflu dans leur survie…
        Doit-on pour autant accepter que seuls les riches profitent de cet art de grands maîtres ou revenir à la survie pour profiter des arts populaires ? Non, en excluant les arts imposés totalitaires (comme l’art bolchevique ou maoïste) on pourrait faire profiter à tous de l’art, de nouvelles créations, de la diversité artistique ; on en aurait les moyens aujourd’hui.
        On souffre déjà de ce manque (les vestiges peuvent-ils subsister toujours?).
        Ce que l’IA ne pourra jamais permettre : l’art ne se calcule pas par des algorithmes.

      3. Mezigue
        « Rassure toi : À tes yeux, la plus belle des robes, c’est celle que tu auras dessinée toi-même. »

        Certainement pas ! et je sais de quoi je parle….. On voit que votre cerveau est déjà dépourvu de sensibilité que vous ne sachiez plus vous projeter dans un autre monde que le vôtre… (désolée, j’espère pour vous me tromper).
        Le capitalisme n’y est pour rien même s’il est à combattre comme tout esclavage et qu’il faut le combattre ! Ou au moins ses effets pervers, dont la standardisation.
        C’est la standardisation qui à mon avis est la plus grande cause de ce mal être général, celle qui ratatine et rend paresseux les cerveaux humains au point de les rendre inutiles ; et pour ce faire il faut retrouver la diversité tant écologique qu’artistique (ce que le capitalisme dans ses excès pervers de rentabilité ne peut pas faire).

      4. @Jacqueline Subias: « Or la robotisation (et l’IA) implique la standardisation, la vulgarisation, la banalisation. En détruisant l’erreur, les maladresses ou le hasard, l’IA ne peut rien découvrir ; il ne peut qu’améliorer ou modifier ce qui existe déjà dans les savoirs faire humains. »

        Vous confondez deux choses: robotisation/productivisme et intelligence artificielle. Ce ne sont pas les mêmes concepts même si l’un est et sera effectivement mis au service de l’autre, ne nous leurrons pas.

        Non, l’IA, ce n’est absolument pas la « standardisation », la « vulgarisation », la « banalisation ». Bien au contraire.

        Comme on le voit dans le deep learning avec les échecs, ce n’est absolument pas de la standardisation qui est à l’oeuvre, mais de l’intuition alliée au consequentialisme et une remarquable tolérance aux erreurs. Mais plus que « standardisation », je dirais « oppressif et qui ne lache rien » pour parler du deep learning aux échecs.

        « Vulgarisation »? Non: Indifférence aux valeurs humaines et inclusions des pires biais sociaux dans l’apprentissage. On voit plus apparaître des systèmes qui agissent comme des miroirs déformants de l’esprit humain, en pas très joli.

        «Banalisation »? Je ne vois pas ce que ce mot signifie dans ce contexte. Je vois plutôt venir des systèmes qui nous montreront de manière assez crue nos propres erreurs d’evaluation. Je pense que cela sera clair, et que cela fera peur dans le domaine biomédical (l’IA nous montrera 1. que nous aurions depuis longtemps déjà du avoir peur de nous mêmes, et 2. nous offrira en même temps des possibilités médicales qui remettront les terreurs nocturnes de Foucault à l’ordre du jour).

        L’IA ne détruit pas l’erreur, les maladresses et le hasard. Elle est surtout capable de faire avec, dans le sillage de ce qu’on appelle la logique pragmatique. L’IA ne détruit pas ces choses là. Elle réduit le risque inhérent dans toute activité à laquelle on l’applique, et ce dans un but pragmatique.

        L’idée que l’IA ne peut rien découvrir et que améliorer va se révéler complètement fallacieuse. C’est un peu long à expliquer, mais il faut avoir conscience qu’en un sens, l’IA c’est l’automatisation, dans un sens très précis, de la méthode scientifique et surtout l’automatisation de la création des hypothèses à tester. La logique de création des hypothèses à tester étant maintenant acquise, il est inévitable que l’IA fasse des découvertes. Le problème avec le deep learning est que nous ne disposons pas à l’heure actuelle de la pierre de Rosette permettant de traduire en language humain quelles sont ou seront ces découvertes.

        De la part d’un matheux fondamentaliste, je vous dis qu’il y a plus de risques à ne pas comprendre ce qu’est réellement l’IA qu’il n’y en a à l’accepter ou à la rejeter de manière binaire. Les gens sont vraiment naïfs dans un sens comme dans l’autre à ce sujet. Les dérives seront de toutes manières inévitables: je ne vois pas comment le futur pourrait être autrement que ce qu’il sera. On est ici pris dans quelque chose qui nous dépasse tous, et personne n’aura le recul nécessaire pour nous permettre de faire des choix éclairés.

        Si Google a pu réaliser l’apprentissage automatique de la marche d’un bipède, il n’y aucune raison théorique que l’intelligence artificielle ne puisse pas à terme automatiser des pans entiers de l’économie. L’IA, ce n’est pas que des échecs, du go, de la reconnaissance vocale. C’est aussi l’apprentissage automatique de comportements dans des environnements simulés, qu’on traduira ensuite dans le monde réel. Les animaux font en partie ce type de travail dans les rêves. L’IA est à la porte de ce type de processus cognitif.

        Pour les matheux hardcore (pas les simples matheux appliqués), les mots clés pour comprendre mon positionnement exprimé ici sont « information geometry » et « neuromanifold ».

      5. « Vous confondez deux choses: robotisation/productivisme et intelligence artificielle. »

        Non, les robots sont des outils. je ne suis pas hermétique à l’outil et pour moi ils évitent que des êtres humains soient asservis comme du bétail. Mais les robots sont de plus en pus actionnés par IA. C’est cette généralisation de l’IA qui me dérange.

        « Comme on le voit dans le deep learning avec les échecs, ce n’est absolument pas de la standardisation qui est à l’oeuvre, mais de l’intuition alliée au consequentialisme et une remarquable tolérance aux erreurs. »

        D’abord pour moi vous parlez « chinois » (façon de parler) : deep Learning, consequentialisme : vous êtes spécialiste non ? Si oui ou si vous vous y connaissez super bien, vous êtes la preuve que l’IA n’est à la portée que de quelques uns : vous êtes tranquille : la future élite de demain. Quid de la politique, quid de la philosophie, quid de l’art plastique, musical ou littéraire ??? Quel auteur littéraire ou poète écrirait avec des mots tels « deep Learning » ou consequentialisme » et combien de personnes pourraient le lire ? Avec ce type de jargon vous créez des cases, des cloisons, vous vous « élitisez ». Alors que l’art même le plus élitiste est universel. (Quoi que, bout à bout, tous ces mots techniques se succédant comme à la Prévert pourraient faire une jolie musique en école maternelle.. mais pas sûr que les enfants comprennent )

        Quant à parler d’une IA « intuitive »… Vous ne semblez pas savoir ce qu’est l’intuition. C’est une IA qui vous l’a enseignée ? A moins que vous ne parliez que de l’intuition des programmeurs. Donc de la future élite.

        « L’IA ne détruit pas l’erreur, les maladresses et le hasard. »

        Ah bon ! je croyais avoir lu sur ce blog même (et entendu ailleurs avec des passionnés) que le but de l’IA est de faire le moins d’erreurs possible jusqu’à (vrai but recherché pas encore trouvé) 0 erreur.
        Maladresses ? Pourquoi avoir recours à l’IA alors ?! Vous ne parlez pas plutôt encore des maladresses des programmeurs humains ? ça oui j’y crois, très fort.
        Hasard ? Parce que le hasard se calcule à présent ???? Se calculent toutes les orientations ou difficultés possibles, donc ce n’est pas du hasard; alors que le hasard est par définition ce qu’on ne peut pas prévoir (d’ailleurs de moins en moins de personnes imbibées de cette mentalité scientiste ne croient pas au hasard). C’est sûr qu’il peut y avoir du (vrai) hasard ou qu’on peut le provoquer (comme certains artistes dans mon exemple) mais alors, à quoi servirait l’IA ? Sinon à ce que tous lui fassions une confiance aveugle ce qui serait catastrophique à échelle mondiale en cas d’erreurs, maladresses ou hasards non prévus (autant ou plus que les excès du capitalisme).
        Donc pour moi, IA généralisé et anticapitalisme (ou anti élites nanties dirigeant le monde) sont incompatibles.
        C’est mon point de vue. Vous m’autorisez à en avoir un qui ne soit pas le vôtre ? Moi j’accepte les divergences. Au contraire, je m’en nourris.

      6. « C’est mon point de vue. Vous m’autorisez à en avoir un qui ne soit pas le vôtre ? »

        Vous ne pensez pas qu’il y ait un niveau minimum de familiarité à avoir avec un sujet avant de formuler des affirmations catégoriques à son propos ?

      7. zut! repérée ! erreur de clic (et si un programmeur fait pareil que moi : erreur de clic, on est foutu…..

      8. F68.10
        J’avais mal lu, trop vite réagi, vos arguments ne contredisent pas forcément les miens.
        Cependant j’insiste :

        « L’IA ne détruit pas l’erreur, les maladresses et le hasard. Elle est surtout capable de faire avec, dans le sillage de ce qu’on appelle la logique pragmatique. L’IA ne détruit pas ces choses là. Elle réduit le risque inhérent dans toute activité à laquelle on l’applique, et ce dans un but pragmatique. »

        C’est précisément cette logique pragmatique portée à son paroxysme que je redoute. Plus que l’IA elle même. Tout ne peut être pragmatique, il reste des parts obscures mais évidentes qu’on appelle « irrationnel » (j’ai d’ailleurs connu un mathématicien qui faisait aussi du spiritisme, une énigme pour moi qui suis relativement pragmatique). Tout ne se calcule pas.
        Par exemple, quand on consulte un médecin en qui on a confiance (parfois on ne sait pas pourquoi, une « aura » qui crée cette affinité ? Comme l’amour ?) il se produit un effet nocebo et c’est plus cela parfois qui nous aide à guérir que les médicaments. Comment une IA pourrait prévoir cet effet nocebo ou a contrario placebo avec pragmatisme ? Sur quels repères se réfèrerait-elle ? Quelles paroles inspirant la confiance, quel sourire, quel accueil ? Certes en management, en commerce ou en publicité il y a des méthodes pour établir cette confiance, une certaine sympathie, une façon de parler que peut calculer une IA. Il doit déjà y avoir des logiciels pour cela ; comme il existe des logiciels pour l’astrologie, la numérologie etc. (j’ai connu un « voyant » qui m’a expliqué que horoscope, numérologie, runes ou même lire dans le marc de café… c’était pareil, et lui utilisait déjà un logiciel pour faire ses prédictions sur internet, le petit filou qui se disait « voyant »).
        C’est bien cela que j’appelle « banalisation, standardisation et vulgarisation » :
        La banalisation généralise, la standardisation unifie, la vulgarisation schématise. Je distingue bien les 3 (même si mes définitions sont on ne peut plus raccourcies je l’admets).

        Pourquoi je pense que l’IA banalise(rait) ? Parce que, bien que pouvant « nous montrer de manière assez crue nos propres erreurs d’évaluation », c’est précisément parce qu’elle démontrerait nos propres erreurs que son utilisation se généralise(rait) à vitesse grand V. Difficile à expliquer, je vais essayer :
        Le danger selon moi serait que cette généralisation soit orientée et donc commanditée (par qui ? à quelle fin ? le bonheur de tous ? je n’en crois pas un mot). Déjà les recherches médicales le sont.
        Un exemple choc : si Hitler avait disposé de l’IA, que serions nous devenus ? Pourtant les expériences sur prisonniers dans les camps de concentration faites par de brillants scientifiques ont permis de faire de grands progrès dont on bénéficie aujourd’hui (en médecine, sur l’impact des couleurs sur nous et notre environnement, etc. ). Certes si les nazis avaient disposé d’IA peut-être que les expériences sur humains auraient été évitées (sauf pour sadisme). Mais il n’empêche que juifs, gitans et communistes auraient été assassinés. De plus un eugénisme poussé à l’extrême (tentation évidente avec l’IA) aurait appauvri en diversité l’espèce humaine par la « standardisation » précisément, laquelle « clone » un genre humain idéal (performant, consommateur, intelligent, productif ou autre… selon but recherché par ceux qui commanditent les programmes…). Alors que d’un niais, d’un simple d’esprit, d’un fragile, d’un infirme, d’un malade ayant côtoyé la mort (ou la côtoyant)… tout ce qu’on peut apprendre ! tout ce qu’ils peuvent nous apporter de bénéfique qu’une IA (à mon avis) ne pourrait pas !
        Quant à la vulgarisation, à force de bien maîtriser une discipline on peut la schématiser pour la rendre accessible à un grand nombre. Ce qui en résulterait (nécessité de marché oblige) une formation généralisée à la programmation d’IA. Un bien ? Par sûr. Une schématisation exclut les « subtilités » ou « exceptions » et laisse croire à ceux qui ne maîtrisent pas bien qu’ils sont « professionnels » : Paul Jorion a sorti un jour l’exemple des bières artisanales qui n’ont aucun goût, tant des jeunes non pro ayant appris des recettes toutes pondues sur internet ont cru savoir et pouvoir en faire. Et combien se contentant des tests psychologiques sur un magazine de mode ou articles succincts sur « psychologie magazine » se croient psychologues ! Certes cette vulgarisation permet au non initié (j’en suis) de pouvoir se constituer des pièces de puzzle (à condition d’en avoir beaucoup de différentes = culture générale) pour les assembler et voir ou apercevoir une image d’ensemble cohérente (ce que ne permet pas la spécialisation poussée qui a tendance à enfermer dans une discipline, d’où mon goût pour l’éclectisme). Mais heureusement qu’il y a de vrais pro spécialistes (et pas qu’à peu près) pour servir de références quand un éclectique a besoin d’informations plus pointues.

        Et pour finir, pour ce qui concerne le hasard, il y a à mon avis une grande différence entre le hasard trouvé par une IA et le hasard pour un humain de trébucher sur un objet qu’il pourrait en faire, en le découvrant, plein de choses différentes selon ce qu’il est (que ne sont pas autres). Pourquoi pas avec l’IA aussi, je veux bien le croire, mais il n’y aura(ait) tellement pas besoin de nombreux programmeurs mathématiciens que cela limitera(ait) considérablement les multiples usages possibles de ces découvertes.

        Mais le plus gros risque serait qu’on deviennent inutiles et donc qu’on n’aurait plus vraiment besoin les uns des autres. Et quitte à me faire berner, à risquer de m’engueuler avec eux ou de me faire insulter (ouque sais je encore de pas agréable) je préfère personnellement avoir besoin des autres et qu’ils aient besoin de moi plutôt que de subir une solitude imposée dans un ennui généralisé (pourtant perso je suis de caractère solitaire et très indépendante, ce pourquoi pour ma sauvegarde je refuse d’apprendre certaines choses, comme l’informatique entre autres, pour continuer à avoir besoin de l’aide d’autrui et ne pas être une conne dans ma solitude et mon autonomie).
        Mon explication est-elle plus compréhensible ?

      9. @Jacqueline Subias: votre positionnement est compréhensible, et de mon point de vue il existe de véritables problèmes moraux associés à la technologie. Mais à cette observation, il y a plusieurs eccueils: le principal est de ne pas attribuer à l’IA en soi des attributs qui relèveront de l’utilisation qui en sera faite. Par exemple quand vous parler de standardisation, c’est une chose typique qu’on risque de créer, alors que ce n’est pas une propriété intrinsèque à l’IA. Il en va de même pour votre caractérisation du hasard.

        Je ne dis absolument qu’il ne faut pas se soucier de l’impact que l’IA aura. Elle peut libérer et aussi asservir, et peut être même les deux à la fois. Mais c’est déjà le cas de la médecine, et ce n’est pas comme si le problème était nouveau…

        Ce que je veux juste dire c’est que beaucoup d’idées injustifiées existent. Par exemple, opposer IA et art, je pense que c’est un exemple type qui finira par se révéler faux. Maintenant, je sais bien pourquoi ce type d’opposition existe.

        Mais tant que les arguments resteront de ce type, les scientifiques se gausseront de ce type de réflexion. Il n’y a à mon avis pas d’autre choix que de leur opposer de véritables oppositions morales et rationnelles. La tâche va être très ardue sinon perdue d’avance.

      10. J’interviens à nouveau parce que j’ai mieux consulté le sujet de l’IA (plusieurs sources) ce qui me permet de mieux préciser ma pensée (et mes craintes)

        Il y a 2 écoles d’interprétation de la machine intelligente*  :

        – Soit une machine sera considérée comme intelligente si elle modélise le fonctionnement de l’humain.

        – Soit si elle reproduit les comportements humains dans un domaine spécifique ou non :
        – spécifique = selon « ordre de fabrication » (OF) déterminé par client achetant la machine.
        – non spécifique = générique, qui se base sur un ou plusieurs caractères communs à l’humain.

        Dans le premier cas, l’OF ne concerne qu’un objectif précis . Exemple (j’imagine ou suppose ce qui existe) : comportement humain dans la conduite automobile dans le but de réaliser une ergonomie facilitant sa conduite pour obtenir soit une meilleure performance, soit plus de sécurité, soit une économie d’énergie, voire les 3 à la fois.
        Mais dans le second, où on englobe plusieurs (et de + en +) fonctions humaines, on ne détermine pas d’objectif précis. Les résultats de recherche sont donc accessibles dans tous les domaines. Mais le générique exclut les cas particuliers, dans ce sens en soi il uniformise.
        Je développe :

        Comment les chercheurs travaillent pour étudier toutes les fonctions humaines ? Il y a tant de fonctions qu’ils doivent, chacun, faire des choix (selon compétence, goût, formation…) : l’un le cognitif, l’autre le neurologique, d’autres le linguistique, le psychologique, les réflexes, l’automatisme, la simulation, le mimétisme… etc. etc.
        A partir de quelle finalité cherchent-ils si c’est générique ? Pour qui ? Pourquoi ? Par qui ? Le libre arbitre ou intuition des chercheurs ? Qui alors les rémunère ? (ils perçoivent bien un salaire)

        Pour comparer avec ce que je connais dans mon ancien secteur d’activité : ces chercheurs, seraient à mon avis comme les stylistes dans les bureaux de tendance type Promostyle développant la créativité aléatoire (hors marketing) selon leur imagination, leur goût, leur propre projection. Ces bureaux sont rémunérés par l’édition de cahiers de tendance achetés fort cher par des fabricants de vêtements, textiles, accessoires , décoration, par extenso mobilier ou encore de cosmétique.
        Sauf que le but de ces clients est de vendre (rarissimes sont les philanthropes désintéressés vivant d’amour et d’eau fraîche) ; et en ce sens ils ne veulent pas acheter ces cahiers de tendance s’ils risquent d’être à côté des désirs de leurs clients (et non celui des stylistes). Il faut donc faire intervenir le marketing (qui pourrait d’ailleurs très bien se faire par IA) pour sélectionner les propositions diverses de style & couleurs & formes sur les cahiers de tendance.
        Dans ce cas, la créativité peut être variée et aléatoire mais la sélection finale deviendrait spécifique.
        C’est ce que j’appelle la « standardisation » par le fait que tous les clients ayant le même objectif vendent le même style => même tendance généralisée => uniformisation.
        Mais cette finalité résultant du marketing (pour schématiser : étude du désir des clients) peut tout aussi bien être dirigée en orientant ce désir pour accroître la vente de tel type de produits ou tel autre, donc en le sélectionnant et le modifiant : le simple fait que toutes les tendances dans l’industrie convergent via l’uniformisation, auxquelles est ajoutée une publicité agressive et performante, ne fait plus des consommateurs « désirant » mais des consommateurs « suiveurs ».
        Je ne fais là qu’un résumé succinct de ce qui existe déjà depuis fin XXe, dans la mode vestimentaire, dans le high tech, les jeux vidéos, le cinéma, la nourriture, etc. liste non exhaustive : Donc tout ce qui touche à l’intime des individus = plaisirs, distractions, goûts personnels, voire goûts culturels…
        Ajoutons à cela les progrès de l’IA dont le but serait aujourd’hui « de le (l’humain) décharger de tâches (contraignantes) pour qu’il puisse se concentrer sur des tâches de plus en plus créatives ou agréables » (*source : Esma Aïmeur – dpt. . »informatique et recherche opérationnelle », université de Montréal).
        Ce que nombreux répètent à l’unisson…. (ces doux rêveurs ou « sages » crédules…)

        Mais comment peut-on se contenter de créativité sans tâches contraignantes (si ce n’est elle aussi par numérique et IA !) et d’agréable ? Si tout devient « agréable », comment le distinguer du « désagréable » ???
        En somme, détruire le désagréable pour ne conserver que l’agréable (banalisation) reviendrait à détruire aussi l’agréable…. Pour quoi à la place ? (Le sommeil ? L’inconscient ?)
        Par l’orientation et l’exploitation des désirs que j’ai décrit ci-dessus (qui se pratique réellement), si ce qui reste à l’humain est le (faux) agréable, ou l’agréable banal, l’humain dans ce cas serait de plus en plus facilement MANIPULABLE puisqu’il n’aurait plus qu’à assouvir ses désirs & plaisirs au gré de sa fantaisie alors que c’est par l’intime qu’on le formate le mieux.

        Question  : manipulable par qui ? (pas par soi-même ni par la machine même intelligente qui ne fait qu’obéir)

      11.  » opposer IA et art, je pense que c’est un exemple type qui finira par se révéler faux  »

        Je suis d’accord pour art et numérique compatible. Pas Art et IA.
        Pour qui n’est pas artiste il ne peut pas comprendre. Disons que art et IA (je fais un effort considérable d’imagination) pourrait donner ce qu’on appelle « artistes du dimanche » c-à-dire un art gentillet, joli sûrement, mais n’exprimant rien. Comme la littérature gentillette, qu’est-ce-quelle exprime ? C’est reposant d’accord, mais se reposer toujours comme un vieillard impotent c’est s’endormir. L’art se nourrit de contraintes (ce pourquoi je dis que je me nourris de « divergences »), plus on a de contraintes plus on est créatif. Cela stimule les neurones et les met en permanence en mouvement. L’exemple du bureau de style que j’ai donné ci dessus parle de stylistes enfermés dans un lieu clos. S’ils ne sortent pas de ce lieu, s’ils ne voyagent pas, s’ils ne se cultivent pas pour solliciter leur sens de l’observation et la circulation de leurs neurones ils restent dans l’art que j’appelle aléatoire (pour moi c’est du sous art ou art mineur comme dirait Gainsbourg). C’est ce que j’ai vu il y a longtemps mais vu le coût des voyages de « sourcing » (d’idées : même mot utilisé qu’en business ou économie) qui n’est pas rentable aux yeux de financiers, je suis à peu près sûre que cela s’est développé considérablement; et si IA dans l’art (une hérésie) ce sera un art sous sous mineur SAUF si l’artiste (humain) utilise des résultats de IA avec bcp de contraintes pour en faire tout autre chose de personnel. Déjà en photographie numérique une floppée de dits « artistes » * pire que du dimanche : de jours fériés n’ont une illumination artistique que quoi… 1 mn ? Pas bcp de temps pour faire travailler les neurones. A force ils se rabougrissent…..
        * mais il y a de vrais artistes photographes de grand talent qui ne recherchent pas le facile. Simplement faire des clics est si à la portée de tout le monde que nombreux se croient artistes parce qu’ils font « clic » là, « clic » ailleurs, clic clic clic…… Alors avec clics sur l’ordi….

      12. @Jacqueline Subias: je vais essayer de traiter le thème de l’art et l’IA. Le plus succinctement possible.

        Vous avez une vision beaucoup trop réductrice de ce que l’IA pourra à terme faire. A l’heure actuelle, votre critique est valide.

        Vous décrivez le processus artistique de plusieurs manières dans vos commentaires. Ce qui me frappe, c’est que à peu près tout ce que vous dites de l’art est transposable tel quel au sujet de la science. Faites l’exercice: remplacez « art » par « science » dans vos propos et émettez un jugement qui vous est propre.

        De ce que je vois, c’est que l’art suit exactement les mêmes processus cognitifs que la science, à la différence que le but n’est pas le même. La science a pour but l’objectivité. Le scientisme le pragmatisme. L’art a pour but la mise en évidence de procédés de séduction entre différents plans de pensée chez les personnes auxquelles il s’adresse.

        Si on arrive à expliciter le but de l’art, on peut arriver à automatiser des formes de création artistique.

        Pour que l’art par IA s’adresse aux humains, il faut une part d’identification de comment les plans de pensée s’intercroisent dans la psyché humaine individuelle et dans la psyché humaine collective. C’est pas du tout évident à déterminer. Mais impossible? Je ne le crois pas.

        Mais en effet, ce n’est pas accessible à l’heure actuelle. La seule tentative de travailler avec les plans de pensée d’autrui de la part de l’IA, Google le tente avec l’application du deep learning a un jeu que je vous conseille d’essayer. Hanabi.

        https://www.lemonde.fr/pixels/article/2019/02/06/intelligence-artificielle-deepmind-s-interesse-au-jeu-de-cartes-francais-hanabi_5420186_4408996.html

        Jouez à ce jeu. Cela vous permettra de prendre la mesure de ce que l’IA sera en mesure de faire le jour où vous lirez dans la presse, dans deux ans peut être, que Google a réussi à tordre la question de l’IA appliquée à Hanabi.

        (Comme vous l’avez compris, je ne suis pas là pour vous rassurer, mais plutôt pour vous inquiéter…)

    2. @Jacqueline Subias

      Rassure toi : À tes yeux, la plus belle des robes, c’est celle que tu auras dessinée toi-même.

      Art, enseignement, soin ? Tu auras tout le temps de t’en occuper en laissant l’intelligence artificielle et la machine traiter de la matière, pour autant que tu leur en donnes l’énergie. D’ailleurs, quoi de mieux que des humains pour s’occuper de l’esprit des femmes et des hommes ?

      Une seule condition – plus ou moins délicate à négocier entre compromission et collaboration : comprendre la complexe toxicité du capitalisme. Heureusement, tu es là à bonne école !

      1. Une chose à savoir pour qui n’est pas créatif :
        la créativité implique du gaspillage : tâtonnements, ratures, erreurs, corrections incessantes auxquelles bien souvent seule une date butoir peut mettre un terme (salons, édition, exposition…). Ce qui n’est pas rentable bien évidemment pour qui veut faire beaucoup de profits, ni pour les bien conditionnés par ce profit de quelques uns (une multitude) qui ne recherchent que l’abondance et le prix le plus bas (à produit égal, même moi je recherche le meilleur prix). Ce « gaspillage artistique » n’est plus permis que dans le grand luxe parce que les riches sont plus regardants sur le produit que sur son coût (= retour en arrière où seuls les riches avaient accès à l’art) .
        Pourtant, il pourrait y avoir une solution (ou des solutions). Programmeurs mathématiciens, je vous défis de la trouver…. quand votre rôle principal est de rationaliser la création (ou les savoirs faire) pour la rendre moins coûteuse ou plus performante…

        Devoir de philo : art et rationalisation sont-ils compatibles ?
        Ma version : La raison implique la sélection : soit l’utile, soit l’élitisme, soit la performance, soit la rentabilité… Elle sépare. Ce pourquoi la raison exclut le superflu (ou inutile), lequel superflu n’est pas le même pour tous.

  2. Bonsoir,
    Ca m’a fait sourire de retrouver deux films (Elysium et Interstellar) que je me suis forcé à regarder pour être un peu au courant de ce qu’on injecte dans le crâne des « millenials » et autres ados… également Ex Machina…
    La liste de films similaires est remarquablement longue, j’aimerais y ajouter « Chappie » qui m’a fait d’abord hurler de rire lorsque le personnage principal met sa conscience sur clé USB… (puis m’a bien sûr interpellé puis inquiété…); et « Snowpiercer », dont j’ai l’impression que le succès fut limité, alors qu’il est aussi intelligent (basé sur un roman français il me semble) et bien fichu.
    J’ai moi aussi une question: vous qui avez des compétences en anthropologie/sociologie/psychanalyse, j’ai une théorie: vu que psychologiquement, on appréhende moins ce qu’on a déjà visualisé au moins une fois (même si ça nous a terrifiés sur le coup), j’ai l’impression que le matraquage médiatique/cinématographique récent ressemble à une préparation mentale à un avenir de plus en plus artificiel et « unnatural ». Etant donné la vitesse à laquelle change notre environnement, ce bombardement sensoriel ressemble, proportionnellement, à ces méthodes de bourrage de crâne où les victimes sont soumises à des séries d’images quasi-stroboscopiques et à des bandes sonores tout aussi ahurissantes. Pour faire accepter au générations en formation un avenir incertain, instable, difficile à suivre, truffé d’AI, de machines, de tech, de catastrophes naturelles et épidémiques, de sociétés inégalitaires, de manipulations génétiques, de terrorismes, de socio/psychopatisme… on le leur met sous le nez, tout simplement. Romancé et visuellement attrayant. Sous forme de divertissement. Comme ça, quand ça se passe vraiment, pas de panique: la connection synaptique existe déjà! S’pas?

    1. @ Pierre B : N’est-ce pas déjà arrivé lors de la révolutions industrielle ?

      On a promis (à partir des années 1850) les bienfaits de la science et de la technique, jusqu’à « les Soviets et l’électrification » sous Staline, par un « matraquage » qui avait nom famine à la campagne (depuis le commerce triangulaire : les enfants « en excès » de Vendée et autres côtes d’ouest sont devenus les « indentured servants » (serfs du nouveau monde contraint de servir pour payer leur voyage pendant N années, N très aléatoire) ; mais s’amplifiant chez les anglais dès fin XVIIIème), nécessité d’aller à la ville, …
      Puis récupération de la colère ouvrière (liée aux solidarités paysannes au XIXème) par les Bismarck et autres Jules Ferry, qui certes créent un bon embryon de Sécu et d’Ecole publique, mais pour que les ateliers turbinent (les enfants illettrés ne lisent pas les consignes !).
      A chaque grand changement son matraquage, je dirais. Quand il a fallu faire « l’homme unidimensionnel » de Marcuse (le cadre moyen mâle blanc hétéro américain des années 50, en gros), la pub et tout le soft power ont frappé fort, déjà.
      Vous avez donc raison, mais la nouveauté n’est « que » dans le thème, pas beaucoup plus trompeur qu’un roman de Jules Verns mutatis mutandis.

  3. Petite machine, jamais tu n’enfanteras dans la douleur parce que la douleur tu n’en auras jamais l’expérience. S’il te manque de l’énergie tu t’arrêteras, si un de tes circuits brûle tu dysfonctionneras mais tu ne ressentiras jamais l’urgence impérieuse de faire cesser la douleur qui neutralise les facultés  » nobles  » chez un humain.
    Bien sûr tu sera programmée pour identifier ces infirmités et ces détresses inhérentes à notre nature avec la nécessité de les éviter. Tu ignoreras la faim du nouveau-né, la brûlure de l’enfant imprudent qui trop approche sa main d’une flamme et donc la sensation de soulagement bestial lorsque toutes ces douleurs trouvent leur apaisement. Il en va de même pour les douleurs morales des humains. A partir de ce constat comment pourrais-tu simuler l’empathie ?

    1. Bon d’accord, mais l’insensibilité a ses avantages.

      Rapporté par ZeroHead :
      « Le principal avantage d’un robot par rapport à un humain est que le danger physique n’a plus d’importance »
      « Le robot est purement défensif, donc il ne peut pas blesser l’automobiliste. Si l’automobiliste endommage le robot, ce n’est que de l’argent pour le remplacer. »
      « Les gens sont plus dangereux lorsqu’ils ont peur, alors l’objectif est d’éliminer la possibilité d’être blessés physiquement pour qu’ils soient moins effrayés et moins dangereux « .

      GoBetween Robotics: A traffic stop robot to keep everyone safe.
      https://www.youtube.com/watch?v=61xTQ3Bg5XI

      Peur, c’est le mot. L’inhumanité fabrique l‘inhumanité. Vive Hollywood.

      1. Daniel
        Si les gens sont plus dangereux quand ils ont peur alors ils auront de plus en plus peur avec une IA qu’ils ne contrôleraient pas.
        Cependant vous parlez de la peur qui terrorise et nous fait perdre nos moyens. Parce que souvent la peur permet que se déclanche en nous un instinct de survie (l’instinct, vous connaissez ? un truc automatique que ne pourra jamais avoir une IA) lequel instinct nous fait faire des choses exceptionnelles dont on ne se serait pas cru capable et qui au contraire d’être dangereuses sont salvatrices (pour soi comme pour autrui). Cela m’est arrivé plusieurs fois. Cherchez bien, je suis sûre que cela vous est arrivé aussi.

    2. GREFFER UNE IA SUR UN PLANT DE NAVET

      Peut-être faudrait-il implanter et connecter un programme d’IA sur un plant de navet pour vérifier comment l’IA se débrouille, en « conscience » d’IA, avec le biologique, et sans simuler ?
      Cool un navet cyborg avec des oreilles en feuilles de chou.
      Et sans simuler, oeuf corse…
      Le biologique et sa conscience, ce n’est pas le BIOS. Une IA le sait-elle, elle qui en est totalement dénuée ?
      Pas sûr, si elle simule, et que la mule émule et reste mule, de fait. A fortioriori quand elle est humainement programmée la ptite bébète. En outre, pas sur que le navet « accepte » la greffe bouffie de simulation aussi hors sol d’une IA simulante, et ce, tout sympathique navet qu’il soit.
      Car, tout navet vivant et conscient sait cela : dans le mou, comme dans le dur, simuler n’est pas jouer.

      E la nave va.

  4. Un seul film suffit à décrire le futur (et encore, il reste +- optimiste en trouvant la façon de nourrir la population ):
    Soleil vert.
    https://fr.wikipedia.org/wiki/Soleil_vert;
    La destruction peut se mesurer par le PIB =POP*PIB/POP;
    PIB/POP peut mesurer le pouvoir d’achat moyen.

    Quand même, une note d’optimisme: Le braconnage des éléphants semble diminuer à cause de la baisse de la demande d’ivoire cad de la baisse de la partie de PIB/POP (cad le pouvoir d’achat) consacrée à l’ivoire.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.