L’Intelligence Artificielle existe-t-elle ?, le 17 septembre 2021 – Retranscription

Retranscription de L’Intelligence Artificielle existe-t-elle ?, le 17 septembre 2021

Bonjour, nous sommes le vendredi 17 septembre 2021 et aujourd’hui, je vais m’efforcer de répondre à la question : « L’Intelligence Artificielle existe-t-elle ? ».

Il se fait que c’est un domaine dans lequel je travaille en ce moment. J’ai été chercheur officiellement en Intelligence Artificielle de 1987 à 1990 [au sein du projet CONNEX chez British Telecom à Ipswich]. En 1990, le programme sur lequel je travaillais s’est interrompu. J’ai eu l’occasion de raconter ça ailleurs et il se faisait qu’à cette époque-là, il y avait un banquier, M. Jean-François Casanova à la Banque de l’Union Européenne, qui m’avait rencontré déjà à plusieurs reprises à la suite d’émissions que j’avais faites pour France Culture sur le thème de l’Intelligence Artificielle et à la demande de Mme Laure Adler : les « Nuits magnétiques ». 

M. Casanova avait écrit à France Culture. J’avais reçu la lettre. Il m’avait invité à déjeuner plusieurs fois et il m’a proposé de venir travailler avec lui et il s’est fait qu’un jour nous sommes chez Drouant (ce n’est pas pour décerner le prix Goncourt, c’est parce que c’est au bout de la rue où il travaillait et où je travaillerai ensuite : la rue Gaillon à Paris), et je lui dis à ce moment-là : « Voilà, mon programme se termine ». Il dit : « Formidable, maintenant, le moment est venu de venir travailler avec moi ! ». Ce que je fais alors. 

Je travaillerai dans ce domaine-là pendant 18 ans et l’idée, c’est que je vais appliquer les techniques de l’Intelligence Artificielle dans la finance. Et au cours des 18 années où j’ai travaillé dans la finance, je n’ai pas utilisé de techniques d’Intelligence Artificielle. 

En quelques mots, je vais vous dire ce que j’ai fait quand même parce que tout ça, l’idée quand même, c’était de me faire venir pour que j’utilise des techniques pointues pour lancer d’abord des choses qu’on appellera ensuite le High frequency trading : le trading [passage d’ordres] à haute fréquence, ensuite des programmes, voilà, d’attribution automatisée de prêts immobiliers, ce que j’ai fait chez IndyMac en Californie, à Pasadena. Enfin bon, des choses de cet ordre-là. 

J’ai été spécialiste des modèles financiers, de leurs tests de validation, des choses de cet ordre-là. Alors, qu’est-ce que j’ai fait pendant ces 18 ans au lieu de faire de l’Intelligence Artificielle ? Je vais le dire quand même en quelques mots. J’ai par exemple… j’ai pris ici trois livres que j’ai beaucoup utilisés, l’un qui s’appelle Modelling Biological Populations in Space and Time [Eric Renshaw, Cambridge University Press 1991]. En particulier, j’ai trouvé dans ce livre le modèle de Lotka-Volterra. Enfin, j’en connaissais l’existence mais là, il y a une description très très précise que je pouvais implémenter comme on dit, c’est-à-dire véritablement le transformer en programme : le rapport entre les vendeurs et les acheteurs, j’ai pu le modéliser comme étant un rapport entre la proie et le prédateur et ça marchait très bien. 

Quand j’ai parlé l’autre jour d’un monsieur qui est milliardaire maintenant et que j’ai posé la question en rigolant un peu de savoir s’il n’avait pas fait une partie de sa fortune grâce à des choses que j’ai inventées, en fait, en y réfléchissant par la suite, oui, c’est vraiment bien possible. 

J’ai utilisé aussi beaucoup par la suite, à propos des mortgages, des prêts immobiliers, Models for Discrete Data [D. Zeltermann, Oxford University Press 1999]. Le titre ne dit pas grand-chose mais enfin, il y a des choses extrêmement importantes là-dedans comme la régression logistique, voilà, qui est une méthode que j’ai utilisée, modèles log-linéaires. 

Ici aussi, voilà, un livre que j’ai beaucoup utilisé : Applied Longitudinal Data Analysis [J.D. Singer & J.B. Willett, Oxford University Press 2003], [sous-titre :] « modéliser le changement et l’occurrence, l’apparition d’évènements ». Bon, ça ne dit pas grand-chose mais, par exemple, les compagnies d’assurance utilisent ce type de méthodes de calcul de la survie d’une personne, de quelque chose. Donc, moi, j’ai utilisé ça pour en faire un modèle de survie d’un mortgage, d’un prêt remboursable, d’un prêt aussi qu’on peut refinancer pour aller en prendre un autre à un taux plus intéressant, des choses de cet ordre-là. 

Donc, 18 années de travail sur un malentendu : que j’allais utiliser des techniques d’Intelligence Artificielle et puis, pas. 

Pourquoi je vous raconte tout ça ? Parce que, quand je vous raconte cette histoire maintenant, je me rends compte qu’elle est devenue fausse. Elle est devenue fausse parce que tout ce dont je vous ai parlé, toutes ces méthodes de statistiques avancées, toutes ces méthodes de probabilité, de combinatoire, tout ça, on appelle ça maintenant de l’Intelligence Artificielle –  voilà ma petite astuce ! 

A posteriori, avec la redéfinition du terme, j’ai fait de l’Intelligence Artificielle. Or, pendant toute la période où je l’ai fait, sachant ce qu’on appelait « Intelligence Artificielle », je dirais « au plus haut niveau » : au niveau véritablement « expert », je considérais que ce n’était pas de l’Intelligence Artificielle.

Et là : voilà déjà un malentendu qu’il faut résoudre d’une certaine manière si on répond à la question : « L’Intelligence Artificielle existe-t-elle ? ». Ça dépend, ça dépend comment on la définit ! 

Dans le domaine des spécialistes, on a eu tendance depuis le début à, quand une technique était véritablement mise au point et qu’on passait à autre chose, de considérer que ce n’était plus de l’Intelligence Artificielle, parce qu’en fait, oui, c’était en réalité des statistiques avancées, oui, c’était de la combinatoire, oui, c’était de l’analyse de réseaux – mais finalement, c’est des méthodes statistiques qu’on utilise là-dedans. Ou des méthodes d’optimisation de divers types, etc. 

C’est-à-dire qu’une fois que c’est fait, on voit comment on l’a bricolé et on voit qu’il n’est pas question véritablement d’intelligence là-dedans – que c’était de résoudre un certain type de problème – on appelle ça autre chose. Et c’est pour ça que vous verrez des grands spécialistes de l’Intelligence Artificielle qui vous diront très doctement que l’Intelligence Artificielle n’existe pas encore, que « Oui on va peut-être un jour en faire mais qu’on est encore très très loin de réaliser ça ! »… Ce qui paraît bizarre parce que, à l’inverse, dans le domaine en particulier des juristes, on appelle de plus en plus « Intelligence Artificielle » simplement toutes ces techniques de statistiques avancées ou bien d’algèbre, de modèles géométriques, et ainsi de suite. On appelle tout ça maintenant IA parce qu’on confond l’Intelligence Artificielle avec en fait la notion d’algorithme. Et qu’est-ce que c’est l’algorithme ? C’est simplement une procédure qui vous permet de faire quelque chose, de transformer par exemple un nombre en un autre nombre ou de faire apparaître quelque chose en sortie qui n’est pas ce qu’on n’avait en entrée. Enfin si : c’est une sorte de synthèse des éléments qu’on avait déjà, mais dispersés au départ. 

Alors, l’Intelligence Artificielle existe-t-elle ? Difficile à dire. 

Par ailleurs, ce qui est apparu – et ça, je viens déjà de le dire – dans deux définitions de l’Intelligence Artificielle, celle, je dirais, de la vie quotidienne, des revues de vulgarisation, des juristes, des administrations, on appelle « Intelligence Artificielle » autre chose que ce que les techniciens appellent Intelligence Artificielle. 

Et alors là, un problème que j’ai vu à d’autres niveaux, à d’autres endroits. Par exemple dans la finance, dans la banque : un dialogue est-il possible entre les banquiers, les dirigeants des banques, et les techniciens, les programmeurs qui font la programmation de ce qui se fait en arrière-plan ? Et là, on m’a souvent mis dans le rôle de l’interprète. Bon, je ne faisais pas que ça mais, très souvent, de pouvoir parler aux banquiers et de leur expliquer, dans des mots que des banquiers comprennent – ce n’est pas une question de QI mais c’est une question de vocabulaire – ce que font les informaticiens et, en direction inverse, d’expliquer à des informaticiens – qui sont des gens intelligents, sinon ils ne feraient pas ce qu’ils font – mais qui ne comprennent pas nécessairement la logique de la finance – de leur expliquer ce que les financiers veulent, comment ça marche et ainsi de suite. 

J’ai passé des heures devant des tableaux noirs, soit m’adressant à des banquiers, en leur expliquant ce que fait véritablement le logiciel et comment il faudrait qu’ils expliquent leurs problèmes pour que, d’une certaine manière, on le transforme en informatique et, en sens inverse, avoir participé à des réunions au plus haut niveau et de me retrouver devant – en général à la cave à ce moment-là – les informaticiens (je veux dire dans des locaux où il n’y a pas nécessairement de fenêtres, qui sont souvent des endroits reculés d’une manière assez infamante d’ailleurs – leur expliquer ce que veulent les banquiers, leur traduire ce langage de la finance en quelque chose qui pourra être écrit sous la forme d’un algorithme. 

Donc, confusion dans le public entre la notion d’algorithme : une procédure mathématique qui va faire quelque chose, qui va transformer une chose en une autre, et Intelligence Artificielle. Et une difficulté due au fait que les gens qui parlent d’Intelligence Artificielle sont en général des gens qui n’y comprennent absolument rien – et de manière extrêmement gênante – et surtout, des gens qui, comme moi, jouent un peu le rôle d’interprète là-aussi entre le monde des spécialistes de l’Intelligence Artificielle et des gens qui en parlent. 

Alors, je prends au hasard (ce n’est pas tout à fait au hasard, je suis allé le chercher parce que je m’en souvenais) – je vais vous lire un petit passage ici. C’est un article qui s’appelle : « Une arme de discrimination massive ». C’est dans un numéro spécial d’une revue consacrée à « IA : du mythe à la réalité » et dans cet article, on vous raconte un certain nombre de choses et on vous dit à propos du fait qu’un algorithme classe de manière apparemment, je dirais, « injuste », les curriculum vitae des femmes par rapport aux hommes : 

« La cause de cette discrimination est simple : ce sont des hommes qui produisent des algorithmes et programment ces machines. Les développeurs intègrent leurs propres idées reçues dans leurs lignes de code. La sous-représentation des femmes dans ce secteur n’est pas pour rien dans la diffusion de ces préjugés ». 

Et le journaliste en question – je ne vais pas dire son nom parce que c’est très grave de faire des erreurs de ce type-là mais c’est un homme – et donc, il nous dit : « Il y a une discrimination faite par la machine par l’algorithme, par l’intelligence artificielle et c’est probablement… ». Non ! il ne dit pas « c’est probablement », il dit : « c’est dû au fait que ce sont des hommes qui rédigent les lignes de programmation et qui vont faire que, voilà, à l’arrivée, les préjugés des hommes vont se retrouver dans les décisions de la machine ». 

Ce qui est dit là est faux. C’est même impossible : il n’y a pas moyen de faire ça parce que, dans ce qui va être fait par la machine, ça dépend entièrement des données qui lui sont données et absolument pas de la manière dont le code a été rédigé. 

Je donne un exemple, c’est un exemple classique. Je ne sais même pas s’il a vraiment eu lieu mais enfin bon, c’est des choses qu’on raconte et on pourrait aller voir si ça a vraiment existé : un premier programme d’Intelligence Artificielle confond un homme africain ou afro-américain avec un gorille. Et on nous dit : « Bon, c’est probablement parce qu’il y avait quelqu’un de raciste qui a dû rédiger quelque part des lignes de programmation et ce raciste a inscrit son racisme dans ce qu’il a écrit-là et la machine a reproduit ça ». C’est impossible ! 

C’est impossible. On pourrait essayer de le faire mais ce ne serait pas vraiment un programme d’Intelligence Artificielle, ce ne serait pas du deep learning. En fait, on a utilisé de l’apprentissage en profondeur, c’est cela qu’on a utilisé pour faire ça. Non, ce sont les données, ce sont les données et le monde tel qu’il est, parce qu’il faut tout de suite ajouter « les données et le monde tel qu’il est ». Parce qu’en général, les données ne sont pas biaisées : elles représentent le monde tel qu’il est. 

Prenons cet exemple extrêmement simple de cet algorithme qui aurait confondu une personne d’origine africaine, de peau noire, avec un gorille. Qu’est-ce qui s’est passé ? C’est du même ordre en fait que ce logiciel pour la conduite automatisée d’une voiture, et qui produit un accident parce qu’un camion, un poids-lourd s’est mis totalement en travers. Sa paroi est blanche et l’Intelligence Artificielle n’est pas parvenue à voir, à deviner qu’il s’agissait en fait d’un véhicule et pas du tout du ciel avec lequel elle l’a confondu. 

Dans les deux cas, d’où vient l’erreur ? Dans le cas du camion, je dirais que c’est assez simple parce qu’un être humain ferait la même chose : commettrait la même erreur. Donc, en fait, exactement, le système d’apprentissage automatique a fait la même erreur qu’un être humain. D’où vient le problème alors ? C’est que nous sommes très tolérants au fait que les êtres humains font des accidents. Ça ne nous étonne pas tous les jours de voir qu’il y a eu tant de morts sur les routes mais quand nous faisons de la conduite automatisée par des machines avec de l’Intelligence Artificielle qui la dirige, notre tolérance, c’est zéro. Là, on ne tolèrera que la machine fasse toute seule que le jour où elle ne fera plus jamais aucun accident. 

[Pour l’IA] la tolérance est zéro donc le jeu n’est pas égal. On ne peut pas dire : « Voilà, les êtres humains faites beaucoup mieux que la machine », non, non, on demande à la machine de faire beaucoup mieux que l’être humain. Dans le cas de la confusion du logiciel, de l’algorithme, entre une personne africaine et un gorille, d’où vient la confusion ? La confusion vient de la couleur. Bon, je prends deux noms au hasard. Mme Ursula Andress, vous voyez peut-être encore qui est cette actrice, et M. Sidney Poitier. Mme Ursula Andress est considérée comme une très belle femme. M. Sidney Poitier est considéré, à très juste titre, comme un très bel homme. Un système tout à fait, je dirais, primitif de reconnaissance des personnes va être influencé par la couleur et confondra moins facilement Mme Ursula Andress avec un gorille que M. Sidney Poitier, à partir simplement de la couleur de la peau. Dans le cas du gorille, ce n’est pas la peau, c’est son pelage mais son pelage est noir. M. Sidney Poitier est une personne dont la pigmentation est extrêmement foncée. Un programme qui ne marche pas bien va confondre plus facilement M. Sidney Poitier avec un gorille que Mme Ursula Andress. Il ne faut pas chercher très très loin. Ce n’est pas très très compliqué. 

Ce qu’on voit beaucoup pour le moment, en fait, quand on dit que l’Intelligence Artificielle ne fonctionne pas, c’est pour deux raisons : c’est en raison de ce qu’on appelle le politiquement correct. On voudrait qu’une machine, spontanément, connaisse toutes les règles du politiquement correct et fasse exactement comme un être humain, c’est-à-dire modifie son opinion non pas en raison des faits eux-mêmes mais en raison de principes, de règles, voilà, qu’« on ne peut pas dire ça », qu’« on ne peut pas faire ceci de telle et telle manière » et, par ailleurs, l’existence des données. Les données elles-mêmes, en général, n’ont aucune notion du politiquement correct à moins qu’on ait déjà fait un tri en fonction de cela et, par conséquent, les données sont les données de la même manière qu’il est vrai que la pigmentation de M. Sidney Poitier est plus foncée que celle de Mme Ursula Andress et se rapproche de celle du gorille en termes simplement de couleur, de nuance de couleur. 

Je vais vous donner un exemple, un exemple connu bien qu’il n’ait jamais été analysé véritablement de la manière que je vais dire : la carte de crédit de la compagnie Apple. 

La carte de crédit de la compagnie Apple se fondait, dans l’allocation, dans l’attribution d’une somme maximale que la personne peut emprunter à partir de sa carte de crédit, ou en dépenses, elle allait se fonder sur l’Intelligence Artificielle à partir de toutes les données, une multitude de données de consommation, elle allait prendre une décision en fonction de cela. 

Et qu’est-ce qui se passe ? C’est qu’au sein d’un même ménage, l’épouse, la femme, a une limite de crédit beaucoup plus basse. On lui attribue une limite beaucoup plus basse qu’au monsieur. Et M. Wozniak, un des fondateurs avec M. Jobs, précisément de la compagnie Apple, se trouve dans cette situation, que son épouse à lui n’a pas droit à emprunter, à partir de sa carte, une somme aussi importante que lui. Et ça se reproduit absolument partout, c’est systématique : d’un côté les hommes, de l’autre côté les femmes. C’est un grand scandale. On demande à la compagnie Apple d’expliquer ce qui s’est passé. Ils regardent tout ce qu’ils ont fait et disent : « On est désolé mais c’est comme ça. On n’a rien trouvé de suspect ». La banque Goldman Sachs qui allait, sur le plan financier, garantir l’argent qui allait être autorisé, eux aussi, font leur enquête et on ne trouve absolument rien. 

Qu’est-ce qui s’était passé ? Il s’était passé que l’Intelligence Artificielle avait fait correctement son boulot, voilà. Ce n’est pas une question de programmation écrite par X ou Y. Tout ça a été bien fait mais les données sont les données. Les données n’étaient pas biaisées non plus mais il y a quelque chose qui s’appelle l’oniomanie. Ça a été découvert et appelé comme ça dans les années 1880. C’est un désordre de la personnalité qui fait que la personne fait des achats compulsifs et il s’agit d’un désordre de la personnalité. C’est étudié à partir de ces années-là. Il y a même, donc, un terme inventé : « oniomanie », et des études sont faites. 

Ce qui se passe dans les années récentes, c’est qu’on essaye de faire disparaître de fait, dans la présentation des données, on essaye de faire disparaître entièrement la différence de comportement des hommes et des femmes sous ce rapport, voilà. Donc, par exemple, dans les articles anciens, ceux du XIXe siècle, on vous dit : « C’est quelque chose qui touche bien davantage les femmes que les hommes ». Mais dans les articles récents, on ne le fait pas [P.J. : manifestation du politiquement correct, dans l’article « oniomanie » sur Wikipédia, les mots « femme », « sexe », « genre », n’apparaissent pas du tout ; dans l’article en anglais, il est dit que « plus de 90% » des personnes souffrant de ce désordre sont des femmes] mais les données apparaissent de manière indirecte parce qu’on vous dit par exemple : « On a fait l’étude sur un échantillon de tant de personnes » et, dans une étude que j’ai vue, sur 171 personnes qui s’étaient présentées volontairement, dirigées plus ou moins par un médecin, par un psychiatre, etc., par un hôpital en tout cas, les gens se sont proposés volontairement pour une étude de ce trouble du comportement et, dans l’échantillon de cet article très sérieux sur le sujet, on a effectivement un échantillon de 171 personnes qui sont venues volontairement. 150 de ces personnes sont des femmes et 21 de ces personnes sont des hommes [87,7% de femmes]. Ça vous donne une idée du fait que c’est quelque chose qui touche plus ou moins un certain type de personnes. 

Alors, qu’a fait la carte Apple, l’Intelligence Artificielle de la carte Apple ? Elle a pris toutes les données. On nous dit : « Oui, mais comment est-ce qu’elle est arrivée à discriminer entre les hommes et les femmes ? », parce que, en plus, dans la loi américaine, il est interdit de faire entrer dans les données le fait que c’est d’un homme ou d’une femme qu’il s’agit. Comment se fait-il que, malgré que la variable sexe, genre, n’était pas entrée, [la chose soit apparue] ? Qu’est-ce qui s’est passé ? 

La machine, qui est intelligente, a découvert qu’il y a un certain type de personnes – que la machine n’a même pas nommées – qui achètent plutôt des soutiens-gorges, qui va plutôt acheter dans tel type de magasin, qui, certains jours, [fait des achats] qui dépassent la limite sur la carte de crédit, etc. Elle va trouver qu’il y a une corrélation entre le fait qu’un certain nombre de personnes achète des soutiens-gorges et qu’elle dépense trop dans des magasins. 

Est-ce que c’est un « biais » ? Ce n’est pas un biais : c’est comme ça que c’est. Qu’est-ce qu’il faut faire ensuite, une fois qu’on voit que les limites de crédit à l’intérieur d’un même ménage ne sont pas les mêmes entre l’homme et la femme ? Les gens comme Wozniak avaient dit : « Oui, mais on a un compte commun à la banque. Comment est-ce possible ? ». « Oui, mais il y a un FICO score (un indice aux États-Unis qui évalue la capacité de crédit), c’est au niveau d’un ménage et pas au niveau d’une personne. Comment est-ce possible ? » 

Comment-est-ce possible ? Eh bien parce que la machine a eu accès à des données extrêmement détaillées et a pu faire émerger avec la régression logistique, avec toutes ces méthodes, elle a fait émerger qu’il y a quelque chose dont elle ne connait pas le nom mais qui se produit de telle et telle manière et, comme je l’ai dit, qui achète des soutiens-gorges et qui dépense trop dans les magasins. 

Quand une recherche a été menée par la compagnie Apple, on a demandé à un certain nombre de sociologues, de spécialistes, de dire ce qu’il fallait faire. Il y a une spécialiste, une dame – je ne crois pas, d’après ce qu’elle expliquait, qu’elle avait des connaissances extrêmement approfondies en informatique – elle a dit la chose suivante : « Eh bien, il faut obliger la loi à renverser cette interdiction de voir s’il s’agit d’un homme et d’une femme, et il faut au contraire utiliser cette information mais dans un seul but : pour corriger des discriminations qui apparaîtraient par la suite ». 

Et voilà le problème devant lequel on est : on a des techniques avancées, maintenant, d’informatique, qui permettent de faire des calculs extrêmement précis et à ce point pointus, rapides, sur des données dans des quantités tellement astronomiques que des êtres humains n’envisageraient même plus de faire ça. Et tout cela nous donne une certaine représentation du monde tel qu’il est mais pas tel que nous voudrions qu’il soit. Et en conséquence, nous disons que la machine a des préjugés quand elle révèle [en réalité] les nôtres par rapport aux données. Parce que nous avons pris l’habitude, nous, de faire ce qu’on appelle de la « discrimination positive » à tout moment dans la journée. C’est ce qu’Aristote appelait la philia, la bonne disposition que nous avons de faire comme si n’existaient pas des différences qui existent en réalité, de passer par-dessus, d’accorder un préjugé favorable à des personnes dont nous savons que la société a tendance à les discriminer. Nous faisons ça gentiment, c’est dans une bonne intention et ça corrige effectivement les choses, l’attitude spontanée des êtres humains et quand la machine ne le fait pas parce qu’on ne lui a pas dit de le faire, on dit : « La machine est biaisée ». Non, la machine voit les choses telles qu’elles sont mais nous ne sommes pas prêts à ça et nous disons : « La machine est stupide », nous disons : « Elle n’est pas encore intelligente puisqu’elle n’utilise pas tous nos critères du politiquement correct par rapport aux données telles qu’elles sont ». 

Alors, l’image que je donne là de l’Intelligence Artificielle, elle n’est pas l’image simplifiée qu’il y a des gens qui écrivent des lignes de code et parce que ce sont des vieux machos, ils vont discriminer les femmes dans ce qu’on verra en sortie. Non, c’est plus compliqué que ça. C’est plus compliqué que cela. 

La difficulté aussi, c’est que nous sommes dans une société ultralibérale où on ne veut rien réglementer. Alors on nous produit – et ça, je lisais hier un excellent texte d’Yves Poullet qui est mon collègue à l’Université Catholique de Lille – on refuse absolument d’interdire ce qu’il faudrait interdire et on fait des grands comités d’éthique et les grands comités d’éthique, ils disent : « Il faudrait plutôt faire ceci que cela. Comptons sur l’autorégulation, que le domaine lui-même comprendra que pour son image vis-à-vis du public, que pour bla bla bla, il faut qu’il corrige les choses ». L’autorégulation ? Moi, j’ai observé l’autorégulation dans les banques pendant 18 ans. L’autorégulation, ça ne fait aucune différence. Il n’y a pas d’autorégulation : on ne fait pas des choses contre son intérêt. 

Une banque va pas faire des choses contre son intérêt, en s’imaginant l’intérêt général ou du marché de manière tout à fait globale, et ainsi de suite. Ça ne se fait pas. Il ne faut pas compter sur l’autorégulation. Mais nous sommes dans un domaine où ce qu’il faudrait réglementer, nous ne le faisons pas et, voilà, nous mettons des comités d’éthique par milliers où la plupart des gens, quand vous voyez les discussions, les comptes-rendus de ces comités d’éthique, vous voyez que la plupart des gens dans ces comités d’éthique ne savent même pas ce que c’est l’éthique et seraient même incapables d’en donner une définition. C’est comme l’argent où chacun considère qu’il peut être un spécialiste de l’argent parce qu’il en a dans sa poche. De même pour l’éthique : on sait ce qui est bien et ce qui n’est pas bien et chacun considère qu’il peut vous donner une opinion là-dessus. 

Voilà, alors, en vitesse une opinion de quelqu’un qui a été un spécialiste de l’Intelligence Artificielle et qui recommence à l’être, sur le fait qu’elle existe ou qu’elle n’existe pas. La conclusion n’est pas très claire. Je vous ai donné un certain nombre d’éléments et je crois que c’est tout ce qu’on peut faire dans la situation présente, voilà. 

Allez, à bientôt !

Partager :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Contact

Contactez Paul Jorion

Commentaires récents

  1. @GmM, Qu’est-ce que vous appelez confusionnisme? Quant à vos « élucubrations » je me disais que ça sonnait comme une réflexion sur…

Articles récents

Catégories

Archives

Tags

Allemagne Aristote BCE Bourse Brexit capitalisme ChatGPT Chine Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grands Modèles de Langage Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon Joe Biden John Maynard Keynes Karl Marx LLM pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés Singularité spéculation Thomas Piketty Ukraine Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta