
Dans son excellent Human Compatible. Artificial Intelligence and the problem of control (Viking 2019), Stuart Russel écrit :
Imaginez à quel point il serait plus facile d’éteindre et de recycler une boîte grise et cubique fonctionnant mal – même si elle poussait des cris, disant qu’elle ne veut pas qu’on l’éteigne – que de le faire à JiaJia. Imaginez aussi comme il serait déroutant et perturbant pour des bébés et des petits enfants si s’occupaient d’eux des entités qui sembleraient humaines, comme leurs parents, mais ne le seraient pas – qui sembleraient prendre soin d’eux, alors que ce ne serait pas le cas (p. 125).
Et je me dis aussitôt, qu’il ne manquerait à ces robots que de « vraiment prendre soin » de ces enfants – ce que rendrait possible ma contribution personnelle à l’Intelligence Artificielle, d’avoir simulé une dynamique d’affect dans une IA, permettant à un logiciel relativement rudimentaire en termes de programmation d’avoir des conversations de plus en plus « intelligentes » avec son utilisateur *.
On pourrait bien entendu me répondre que mon innovation date d’il y a déjà 32 ans et que si elle avait dû servir, elle aurait déjà servi, mais à ça Stuart Russell a déjà aussi pensé :
Une bonne idée – une vraie percée – passera souvent inaperçue au moment-même et il se peut qu’on ne comprenne que plus tard qu’elle constitue en fait la base d’une avancée substantielle en IA, quand peut-être quelqu’un la réinvente à un moment plus propice. […] C’est souvent le cas qu’une idée en elle-même ne suffise pas à générer une amélioration substantielle des capacités, et qu’elle doive attendre qu’une autre idée apparaisse pour que leur combinaison des deux apporte la preuve de la valeur qui était la sienne (p. 63).
Je ne suis donc peut-être pas définitivement à l’abri du risque qu’un humain courroucé venu du futur me fasse la peau (toute ressemblance avec une histoire de sci-fi bien connue serait purement fortuite).
Mais une autre considération de Stuart Russell me rassure :
… la capacité basique à transmettre une information non-verbale par l’expression faciale et son mouvement – qui est à la portée même de Bugs Bunny… (p. 126)
Le voyageur du futur s’en prendra – plutôt qu’à moi – au premier qui a réussi à vendre un gadget à des gosses en leur faisant croire que c’était Miquet ou Donald Duck qui le leur demandait gentiment.
Avertissement : N’en profitez pas pour chercher à m’assassiner : même si on me croit sur beaucoup de choses, il n’est pas sûr qu’on me croie sur ça !
* ANELLA (Associative Network with Emergent Logical and Learning Abilities) : réseau associatif à capacités logique et d’apprentissage émergentes, l’IA que j’ai mis au point pour British Telecom (1988-89) et dont le concept est décrit dans Principes des systèmes intelligents (1989).
Répondre à juannessy Annuler la réponse