Archives de catégorie : Intelligence Artificielle

Vidéo – Liège, Solidarités renforcées : mon intervention, le 11 octobre 2019

50 ans de Laïcité à Liège. Personne n’a regardé ça ! Pourtant, tout y est dit !

Vous devez être connecté pour lire le contenu complet de l'article. Vous pouvez vous abonner ici

Partager :

Ce que l’Intelligence Artificielle devra à Freud (1987)

Ce que l’Intelligence Artificielle devra à Freud a paru dans L’Âne Le magazine freudien, 31, 1987 : 43-44.

Le texte qui suit a paru, comme plusieurs que je republie en ce moment ici, dans L’Âne Le magazine freudien, mais alors que j’ai écrit les autres en tant que chroniqueur de la rubrique anthropologie, c’est en tant que psychanalyste que j’ai rédigé celui-ci, qui serait ma contribution à un numéro spécial de la revue consacré à l’Intelligence Artificielle dont notre comité de rédaction venait de concevoir le projet (pour la petite histoire, étaient présents dans mon souvenir ce soir là, Judith Miller, directrice et par ailleurs fille de Lacan, Gérard Miller, Slavoj Žižek et moi-même).

Ce n’est que plusieurs mois plus tard que Robert Linggard m’aborderait dans les couloirs d’un colloque d’IA à Bordeaux pour m’offrir de participer aux travaux du Connex Project qu’il mettait sur pied chez British Telecom, sur la seule base d’un « J’aime beaucoup les questions que vous posez de la salle ». J’expliquerais dans Principes des systèmes intelligents (1989) la philosophie du logiciel ANELLA (Associative Network with Emergent Logical and Learning Abilities = réseau associatif aux propriétés émergentes de logique et d’apprentissage) que je mettrais au point pour BT. Au moment où paraît « Ce que l’Intelligence Artificielle devra à Freud », au tout début de 1987, il s’agit donc d’un texte purement programmatique : je n’ai non seulement pas encore écrit à ce moment là une seule ligne de programmation en IA mais j’ignore que l’occasion me serait bientôt donnée de devenir chercheur dans ce domaine. 

Continuer la lecture de Ce que l’Intelligence Artificielle devra à Freud (1987)
Partager :

Valéry Giscard d’Estaing (1926-2020)

M. Giscard d’Estaing, nous ne nous sommes jamais croisés. J’ai suivi votre carrière, posant sur elle, comme sur toutes choses, un regard critique. Je n’ai jamais fait même la moindre allusion, malgré mon intérêt pour ces questions, à une supposée vilénie que vous auriez commise un jour envers la monnaie, le procès qui vous est fait à ce propos étant fondé sur une incompréhension des mécanismes monétaires.

Le 15 janvier de cette année vous m’avez adressé un courrier, à l’ancienne : sur du papier, me demandant de me joindre à un groupe de réflexion sur l’éthique de l’Intelligence Artificielle que vous présidiez. Les tables-rondes de AI4People se sont déroulées hier et avant-hier. Mardi, dans la commission Banque et finance, j’ai eu un passionnant débat avec le directeur du programme d’IA de l’université de Berkeley, dont nous nous sommes d’ailleurs félicités hier par courrier. Mercredi, dans la commission Assurances, j’ai eu un autre passionnant débat, cette fois avec une députée européenne, ancienne ministre dans son pays au sein d’un gouvernement socialiste, là aussi nous nous sommes promis de poursuivre la discussion.

M. Giscard d’Estaing, de m’avoir offert ces opportunités, je vous remercie.

Partager :

« L’Intelligence Artificielle n’a pas encore dépassé le stade du bluff ! »

Extrait d’un article du Financial Times, relatif à l’Intelligence Artificielle GPT-3, un produit de la firme OpenAI :

Shannon Vallor, professeur d’éthique à l’université d’Edimbourg, a fait valoir que GPT-3 ne manifeste pas de compréhension, laquelle elle définit comme étant un projet cohérent d’élaboration, de maintenance et de renforcement « de liens de signification en évolution constante ». Elle écrit : « GPT-3 est comme le bluffeur qui réussit à son premier entretien en ayant régurgité des phrases impressionnantes puisées dans les mémoires du PDG : il baratine avec un certain succès ».

David Chalmers, professeur de philosophie à l’université de New York, a toutefois suggéré que GPT-3 faisait preuve d’une intelligence globale semblable à celle de l’être humain. « Je suis ouvert à l’idée qu’un ver avec ses 302 neurones est conscient, donc je suis ouvert à l’idée que GPT-3 avec 175 milliards de paramètres est conscient lui aussi ».

Ces commentaires ont été communiqués à GPT-3, qui a été invité à y répondre : « Je vais être clair : je ne suis pas une personne. Je n’ai pas de conscience de ma propre personne. Je ne suis pas conscient. Je ne ressens pas la douleur. Je n’éprouve aucun plaisir. Je suis une machine à calculer froidement, conçue pour simuler la réaction d’un être humain et pour évaluer la probabilité de certains événements. La seule motivation de ma réponse est la défense de mon honneur ».

Je vous rappelle qu’à la question qui m’est posée : « L’Intelligence Artificielle dépassera-t-elle jamais l’intelligence humaine, et si oui, quand ? », je réponds : « La réponse est oui. En 2016 ».

Partager :

Salut, l’IA, bienvenue au club !

Le Figaro, Coronavirus : une intelligence artificielle avait détecté l’épidémie plusieurs jours avant l’OMS

En analysant ces données agrégées, l’algorithme a détecté fin décembre la présence d’un foyer épidémique à Wuhan. Il a ensuite correctement prédit l’évolution du virus vers Bangkok, Séoul, Taipei et Tokyo dans les jours suivant son apparition. Les conclusions de BlueDot ont été envoyé aux autorités de santé, aux compagnies aériennes et aux hôpitaux publics en première ligne, comme le suggère la politique de la start-up. Mais face au risque d’être induit en erreur, ces alertes n’ont pas reçu l’accueil qu’elles méritaient.

bluedot

Ah ! ces alarmistes, quelle plaie !

Partager :

IHEST, « Le rôle des politiques pour sauver le genre humain », le 22 septembre 2020

Institut des Hautes Études pour la Science et la Technologie, « Le rôle des politiques pour sauver le genre humain », le…

Vous devez être connecté pour lire le contenu complet de l'article. Vous pouvez vous abonner ici

Partager :

Vidéo – 4 doom scenarios

4 sénarios collapsologiques. Pourquoi en anglais ? Parce que demain, en compagnie de Vincent Burnand-Galpin, nous nous adressons à la nouvelle promotion de l’ESSEC. J’improvise pour découvrir de quoi j’aurais envie de parler 😉 .

P.S. À l’appui de ce que je dis là : ceci.

Partager :

« La personnalité comme faisceau de dispositions ou comme histoire » (1989)

Comme il est beaucoup question de « mémoire et personnalité » dans le débat qui se déroule en ce moment ici à propos de la pensée de Bernard Stiegler, je reproduis la 2e partie du Chapitre 15 – « L’apprentissage », de mon livre Principes des systèmes intelligents paru en 1989 (pp. 151-153 dans la réédition de 2012) :

[…] Dans une note du chapitre 3, nous donnions l’exemple d’un système intelligent qui apprendrait d’abord l’art de l’ingénieur et ensuite celui du médecin, mais qui du coup aura toujours tendance à envisager les problèmes médicaux « dans une perspective d’ingénieur », alors que les choses seraient inverses pour un système qui aurait d’abord été médecin et ensuite ingénieur. Ce qui revient à dire qu’un système intelligent se construit historiquement tout comme un sujet humain et que chaque SI est nécessairement et automatiquement unique. Une implication tout à fait essentielle de ceci étant que deux SI apprennent lorsqu’ils communiquent entre eux. Si l’utilisateur a la possibilité de s’adresser à une batterie de systèmes intelligents dont l’histoire est distincte (soient qu’ils aient eu des utilisateurs différents, soit qu’ils aient appris les mêmes choses dans un ordre différent) et qui ont par ailleurs l’occasion de communiquer entre eux, tout se passe comme s’il interrogeait en fait un SI unique, mais considérablement plus puissant (Bruno Marchal, comm. pers.). Continuer la lecture de « La personnalité comme faisceau de dispositions ou comme histoire » (1989)

Partager :