PRIBOR : Self-Aware Machines (machines conscientes d’elles-mêmes)

ANELLA – La technologie révolutionnaire de Pribor.io

Partager :

11 réponses à “PRIBOR : Self-Aware Machines (machines conscientes d’elles-mêmes)

    1. Avatar de écodouble
      écodouble

      😀 😀 😀

  1. Avatar de ilicitano
    ilicitano

    Dialogue avec BingGPT sur Anella .
    Les liens fournis ont été retirés.
    Par contre les chiffres dans les commentaires se rapportant aux liens ont été laissés: trop long à retirer

    moi:
    Qu’est ce qu’Anella de Paul jorion

    GPT:
    ANELLA est un logiciel d’Intelligence Artificielle développé par Paul Jorion pour les British Telecom de 1987 à 1990¹. ANELLA signifie « Associative Network with Emergent Logical and Learning Abilities », ce qui se traduit en français par « réseau associatif aux propriétés émergentes de logique et d’apprentissage »¹.

    La particularité d’ANELLA réside dans son modèle de mémoire animé par une dynamique d’affect opérant sur l’univers des mots du lexique³. Cette approche est inspirée par la formation psychanalytique de Paul Jorion³. Il considère que ce qui est central à la pensée humaine, si on veut la reproduire, c’est la dynamique d’affect¹. Cette dynamique d’affect est principalement constituée de deux choses : notre souci de survivre et notre désir (la libido), qui nous fait dérailler à tout moment de ce que la pensée consciente essaye de nous faire faire¹.

    Paul Jorion a également rédigé un livre intitulé « Principes des systèmes intelligents » en 1989 qui explique ce qu’il essayait de faire avec ANELLA⁴.

    GPT lui-même
    Quelles sont les applications d’ANELLA?

    GPT:
    ANELLA, le logiciel d’Intelligence Artificielle développé par Paul Jorion, a été conçu pour explorer une nouvelle approche de l’IA basée sur la dynamique d’affect¹. Cependant, les applications spécifiques d’ANELLA ne sont pas clairement mentionnées dans les sources disponibles¹².

    Cela dit, l’approche de la dynamique d’affect pourrait avoir des implications importantes pour le développement futur de l’IA. Par exemple, Yann LeCun, un chercheur renommé en IA, a proposé une dynamique d’affect pour résoudre l’IA¹. Cela suggère que les idées centrales d’ANELLA pourraient être pertinentes pour les recherches actuelles en IA¹.

    Il est également important de noter que Paul Jorion a écrit un livre intitulé « Principes des systèmes intelligents » en 1989 qui explique ce qu’il essayait de faire avec ANELLA¹. Ce livre pourrait fournir plus d’informations sur les applications potentielles d’ANELLA.

    GPT lui-même:
    Qu’est-ce que la dynamique d’affect?

    GPT:
    La dynamique d’affect est un concept qui se réfère à l’interaction complexe des émotions et des sentiments dans notre esprit. Elle est souvent utilisée pour décrire comment nos émotions et nos sentiments influencent notre pensée et notre comportement¹.

    Dans le contexte de la psychanalyse, l’affect est considéré comme un phénomène de la vie émotionnelle du sujet qui implique la complexité de dynamiques psychiques profondes et qui participe directement à engendrer les névroses¹.

    Dans le contexte de l’intelligence artificielle, comme dans le cas du logiciel ANELLA développé par Paul Jorion, la dynamique d’affect se réfère à une approche de l’IA qui tente de modéliser et de reproduire cette interaction complexe des émotions et des sentiments dans une machine²..

    GPT lui-même:
    Quelle est l’importance de la dynamique d’affect en IA?

    GPT:
    La dynamique d’affect en Intelligence Artificielle (IA) est un concept important car elle tente de modéliser et de reproduire l’interaction complexe des émotions et des sentiments dans une machine¹. Cela peut avoir plusieurs implications importantes pour le développement futur de l’IA.

    1. **Compréhension et interaction humaine** : En intégrant la dynamique d’affect, les systèmes d’IA peuvent être capables de comprendre et de répondre aux émotions humaines de manière plus naturelle, ce qui peut améliorer l’interaction homme-machine¹.

    2. **Décision et comportement** : La dynamique d’affect peut jouer un rôle crucial dans la prise de décision et le comportement. En intégrant cette dynamique dans les systèmes d’IA, ils peuvent être capables de prendre des décisions plus complexes et d’exhiber des comportements plus diversifiés¹.

    3. **Apprentissage et adaptation** : La dynamique d’affect peut également jouer un rôle dans l’apprentissage et l’adaptation. Par exemple, les émotions peuvent influencer la manière dont nous apprenons et nous adaptons à de nouvelles situations. En intégrant cette dynamique dans les systèmes d’IA, ils peuvent être capables d’apprendre et de s’adapter de manière plus efficace¹.

    Cependant, il est important de noter que l’intégration de la dynamique d’affect dans les systèmes d’IA présente également des défis importants, notamment en termes d’éthique et de responsabilité¹.

    GPT lui-même:
    Quels sont les défis éthiques liés à l’intégration de la dynamique d’affect en IA?

    GPT:
    L’intégration de la dynamique d’affect en Intelligence Artificielle (IA) soulève plusieurs défis éthiques importants :

    1. **Manque de transparence** : Les décisions prises par l’IA ne sont pas toujours compréhensibles pour les humains⁴. Cela peut être particulièrement problématique lorsque l’IA est utilisée dans des domaines sensibles comme la santé ou la justice.

    2. **Biais et discrimination** : Les systèmes d’IA peuvent intégrer des biais et produire des résultats discriminatoires⁴. Cela peut être dû à des biais dans les données d’apprentissage ou à la manière dont les algorithmes sont conçus.

    3. **Opacité** : Il peut être difficile de comprendre comment un système d’IA a pris une décision particulière⁴. Cela peut rendre difficile la responsabilisation des systèmes d’IA.

    4. **Autonomie** : Avec l’intégration de la dynamique d’affect, les systèmes d’IA peuvent prendre des décisions de manière plus autonome¹. Cela soulève des questions sur le contrôle humain sur ces systèmes et sur qui est responsable lorsque les choses tournent mal.

    5. **Vie privée** : Les systèmes d’IA qui utilisent la dynamique d’affect peuvent nécessiter l’accès à des données sensibles, ce qui peut poser des problèmes de confidentialité¹.

    6. **Responsabilité morale et distribuée** : L’attribution de la responsabilité pour les conséquences des comportements de l’IA est compliquée par le mélange d’acteurs humains et technologiques¹.

    Ces défis nécessitent une attention particulière pour garantir que l’utilisation de la dynamique d’affect en IA respecte les principes éthiques et les droits de l’homme.

    GPT-lui-même:
    Comment peut-on atténuer les biais dans les systèmes d’IA?

    GPT:
    Il existe plusieurs stratégies pour atténuer les biais dans les systèmes d’Intelligence Artificielle (IA) :

    1. **Connaissance initiale du sujet** : Il est important de comprendre le sujet à traiter avant de développer un modèle d’IA¹.

    2. **Définition précise des besoins** : Il faut définir clairement les besoins réels des utilisateurs du futur modèle d’IA¹.

    3. **Utilisation de sources d’information fiables** : Pour constituer la base d’apprentissage, il est recommandé d’utiliser des sources d’information fiables et communes¹.

    4. **Sélection d’évaluateurs diversifiés** : Il est important de choisir des évaluateurs provenant de différents horizons pour éviter les biais cognitifs³.

    5. **Évaluation de consensus** : Cette stratégie consiste à obtenir un consensus parmi plusieurs évaluateurs pour minimiser les biais³.

    6. **Étalonnage des évaluateurs** : Il s’agit de calibrer les évaluateurs pour s’assurer qu’ils évaluent de manière cohérente³.

    7. **Évaluation du processus de feedback** : Il est important d’évaluer le processus de feedback pour identifier et corriger les biais potentiels³.

    8. **Équilibrage du feedback** : Cette stratégie consiste à équilibrer le feedback reçu pour éviter que certaines opinions ne soient surreprésentées³.

    9. **Transparence sur le cycle de vie du modèle de machine learning employé** : Il est crucial de rendre transparent le cycle de vie du modèle de machine learning utilisé⁴.

    10. **Robustesse et sécurité des systèmes mis en œuvre** : Les systèmes doivent être robustes et sécurisés pour garantir la fiabilité des résultats⁴.

    Ces stratégies peuvent aider à atténuer les biais dans les systèmes d’IA, mais il est important de noter qu’il n’est pas toujours possible d’éliminer complètement tous les biais.

    moi:
    Comment peut-on modéliser la dynamique d’affect dans un supercalculateur ? Quel serait le processus pour générer la dynamique d’affect dans l’I.A ? Quel serait son besoin d’apprentissage ? quel serait les moyens techniques en hardware à mettre en œuvre ?

    GPT:
    La modélisation de la dynamique d’affect dans un supercalculateur pour l’IA est un processus complexe qui nécessite une combinaison de techniques d’apprentissage automatique, de traitement du langage naturel et de compréhension du contexte émotionnel¹⁵. Voici un aperçu général du processus :

    1. **Collecte des données** : Tout d’abord, il faut collecter des données pertinentes pour l’apprentissage de la dynamique d’affect. Ces données peuvent comprendre des textes annotés avec des informations émotionnelles, des enregistrements vocaux avec des tonalités émotionnelles, des expressions faciales capturées par vidéo, etc⁶.

    2. **Prétraitement des données** : Les données collectées doivent être prétraitées pour les rendre utilisables par l’IA. Cela peut impliquer la conversion du texte en vecteurs numériques, l’extraction de caractéristiques pertinentes à partir des enregistrements vocaux ou des images, etc⁶.

    3. **Entraînement du modèle** : Une fois les données prétraitées, elles peuvent être utilisées pour entraîner un modèle d’IA à reconnaître et à comprendre la dynamique d’affect. Cela peut être réalisé en utilisant diverses techniques d’apprentissage automatique, comme les réseaux de neurones artificiels¹³.

    4. **Test et validation** : Après l’entraînement, le modèle doit être testé et validé pour s’assurer qu’il peut reconnaître avec précision la dynamique d’affect dans de nouvelles données⁶.

    5. **Déploiement** : Une fois validé, le modèle peut être déployé dans le supercalculateur pour être utilisé dans des applications réelles⁶.

    En termes de besoins d’apprentissage, l’IA doit apprendre à reconnaître et à comprendre la dynamique d’affect à partir des données fournies. Cela nécessite une grande quantité de données de haute qualité pour l’entraînement¹¹. De plus, l’IA doit également apprendre à généraliser à partir de ces données pour pouvoir traiter efficacement de nouvelles situations¹³.

    En ce qui concerne les moyens techniques en hardware, un supercalculateur est nécessaire pour traiter efficacement les grandes quantités de données impliquées dans l’apprentissage et l’utilisation de la dynamique d’affect¹. Les supercalculateurs sont capables de réaliser un très grand nombre d’opérations de calcul ou de traitement de données simultanées¹. De plus, des systèmes de stockage à grande échelle sont nécessaires pour stocker les données utilisées pour l’entraînement et l’utilisation du modèle¹.

  2. Avatar de ilicitano
    ilicitano

    moi:
    Pourriez-vous définir un projet global très précis avec les différentes étapes pour réaliser la mise en œuvre d’une IA sur le modèle d’Anella?
    Ces étapes devront intégrer : la collecte des données et leur sélection, le modèle d’apprentissage , l’intégration des bases culturelles qui peuvent définir des émotions spécifiques, les moyens nécessaire en hardware ( supercalculateur avec intégration de GPU-CPU-autres , besoins clouds et serveurs , etc) et autres que vous trouverez nécessaires . Merci

    GPT:
    Voici un projet global pour la mise en œuvre d’une Intelligence Artificielle (IA) sur le modèle d’Anella :

    1. **Définition du projet** : Il faut définir clairement les objectifs du projet, les résultats attendus, les ressources disponibles et le calendrier.

    2. **Collecte des données** : Il faut collecter des données pertinentes pour l’apprentissage de la dynamique d’affect. Ces données peuvent comprendre des textes annotés avec des informations émotionnelles, des enregistrements vocaux avec des tonalités émotionnelles, des expressions faciales capturées par vidéo, etc.

    3. **Sélection des données** : Il faut sélectionner les données les plus pertinentes pour l’entraînement du modèle. Cela peut impliquer l’élimination des données non pertinentes ou redondantes, ainsi que la prise en compte des biais potentiels dans les données.

    4. **Prétraitement des données** : Les données sélectionnées doivent être prétraitées pour les rendre utilisables par l’IA. Cela peut impliquer la conversion du texte en vecteurs numériques, l’extraction de caractéristiques pertinentes à partir des enregistrements vocaux ou des images, etc.

    5. **Entraînement du modèle** : Une fois les données prétraitées, elles peuvent être utilisées pour entraîner un modèle d’IA à reconnaître et à comprendre la dynamique d’affect. Cela peut être réalisé en utilisant diverses techniques d’apprentissage automatique, comme les réseaux de neurones artificiels.

    6. **Intégration des bases culturelles** : Il est important de prendre en compte les différences culturelles lors de l’entraînement du modèle. Cela peut impliquer l’utilisation de données provenant de différentes cultures et la prise en compte de la manière dont ces cultures expriment et interprètent les émotions.

    7. **Test et validation** : Après l’entraînement, le modèle doit être testé et validé pour s’assurer qu’il peut reconnaître avec précision la dynamique d’affect dans de nouvelles données.

    8. **Déploiement** : Une fois validé, le modèle peut être déployé dans le supercalculateur pour être utilisé dans des applications réelles.

    En termes de moyens techniques en hardware, un supercalculateur est nécessaire pour traiter efficacement les grandes quantités de données impliquées dans l’apprentissage et l’utilisation de la dynamique d’affect. Les supercalculateurs sont capables de réaliser un très grand nombre d’opérations de calcul ou de traitement de données simultanées. De plus, des systèmes de stockage à grande échelle sont nécessaires pour stocker les données utilisées pour l’entraînement et l’utilisation du modèle. En outre, il peut être nécessaire d’utiliser des services cloud pour stocker et traiter les données, ainsi que pour déployer le modèle.

    ———-

    Pour info BingGPT n’a fait appel à aucun lien sur le web

  3. Avatar de ilicitano
    ilicitano

    moi:
    Comment voyez-vous les profils des personnes qui constitueront l’équipe pour la mise en œuvre du projet lors de ces différentes étapes. Ces profils seront un moyen pour la base de recrutement et définir les bases adéquates nécessaires ?

    GPT:
    Pour mettre en œuvre un projet d’Intelligence Artificielle (IA) sur le modèle d’Anella, une équipe multidisciplinaire serait nécessaire. Voici les profils des personnes qui pourraient constituer cette équipe :

    1. **Chef de projet IA** : Cette personne serait responsable de la gestion globale du projet, y compris la planification, la coordination des ressources, le suivi des progrès et la communication avec les parties prenantes.

    2. **Ingénieurs en apprentissage automatique** : Ils seraient responsables de la conception, de l’entraînement et de la validation des modèles d’IA. Ils auraient besoin d’une solide expérience en apprentissage automatique, en traitement du langage naturel et en programmation.

    3. **Ingénieurs en données** : Ils seraient responsables de la collecte, du prétraitement et de la gestion des données utilisées pour l’entraînement du modèle d’IA.

    4. **Spécialistes du domaine** : Ces personnes apporteraient une expertise dans le domaine spécifique de l’application de l’IA (par exemple, la psychologie pour comprendre la dynamique d’affect). Ils aideraient à interpréter les résultats du modèle d’IA et à fournir des informations pour améliorer le modèle.

    5. **Ingénieurs système** : Ils seraient responsables de la gestion du supercalculateur et des autres infrastructures matérielles nécessaires pour le projet.

    6. **Spécialistes en éthique de l’IA** : Ces personnes aideraient à identifier et à gérer les défis éthiques liés à l’utilisation de la dynamique d’affect en IA.

    7. **Testeurs QA** : Ils seraient responsables de tester le modèle d’IA pour s’assurer qu’il fonctionne comme prévu et qu’il ne présente pas de biais ou d’autres problèmes.

    8. **Spécialistes en UX/UI** : Ces personnes concevraient et testeraient l’interface utilisateur pour s’assurer que le modèle d’IA est facile à utiliser et répond aux besoins des utilisateurs.

    Chacun de ces rôles nécessite une combinaison unique de compétences techniques et non techniques, ainsi qu’une compréhension approfondie des principes éthiques liés à l’utilisation de l’IA.

    1. Avatar de Pierre-Yves Dambrine
      Pierre-Yves Dambrine

      Illicitano
      suis-je le seul à penser que GPT, faute de données complètes (il ne pas lu les Principes, ni même eu accès aux billets qui décrivent même brièvement ses principes) n’a pas compris de quoi il s’agit avec Anella ? Il n’a pas compris en quoi consiste la dynamique d’affect selon Anella, du coup quand on l’interroge sur la manière de développer l’IA il n’en tient pas compte. Il fait comme si par exemple il fallait des armées de psychologues (j’exagère un peu) pour développer les applications faisant appel à la dynamique d’affect alors que celle-ci, si j’ai bien compris (qu’on me corrige si je dis une énormité) est inhérente au traitement des chaînes de signifiants composées de mots qui sont générés lors des séquences d’interlocution composées de questions-réponses. GPT raisonne comme s’il fallait traiter la partie émotionnelle à part alors qu’elle est intégrée dans Anella. De même pour ce qui est de la transparence, il m’avait semblé qu’Anella avec sa mémoire idiosyncrasique offre une bien meilleure transparence que celle des IA top-dow, de cela BingGPT n’en tient pas compte non plus.

      Bref, ça fait déjà de sacrés trous dans la raquette. Autrement dit l’application n’est exploitable que par l’inventeur d’Anella lui-même et ceux qui ont lu et compris les Principes (des systèmes intelligents.) C’est déjà ça mais pour un bidule censé rendre des services universels, et favoriser la recherche dans le domaine, et rendre plus intelligent, c’est vraiment pas à la hauteur.

      SI j’étais méchant je dirais qu’il y a zéro plus value intellectuelle pour ce qui est de sa prétention universelle, pire, cela peut ralentir la recherche en prétendant faire ce qu’il ne fait pas. Cela confirme ce que j’avais écrit dans un commentaire, Anella renforce la doxa, ce qui pour le coup ne fait pas émerger les choses innovantes. Cela profite à ceux qui savent ce qu’ils cherchent. Autrement dit, dit l’intelligence de GPT vient d’abord et toujours de l’humain qui pose ses questions et l’enrichit. GPT ne pense pas par lui-même, la ‘plus value’ d’intelligence qu’il procure vient de l’humain qui a su poser les bonnes questions.

      1. Avatar de PIerre-Yves Dambrine
        PIerre-Yves Dambrine

        PS.
        En somme GPT n’est-ce pas d’abord « le nec plus ultra de la gestion électronique de documents plagiés, via le conversationnel. » (j’emprunte cette définition à Philippe Soubeyrand que je remercie au passage pour cette formulation qui me semble pertinente) ?

        GPT est très fort pour faire des listings instantanés, au fur et à mesure qu’on lui pose des questions, mais il est bien capable de produire des projets détaillés en langage naturel à partir d’une question simple où s’énonce un problème à résoudre. IL pèse le pour le contre, voit les différents aspects d’un problème, mais tout cela ne fait pas une pensée articulée et assumée à partir d’un point de vue. Bref, il ne pense pas vraiment et n’est donc pas autonome.

        1. Avatar de Pierre-Yves Dambrine
          Pierre-Yves Dambrine

          il fallait lire «… bien incapable de produire … »

      2. Avatar de Paul Jorion

        GPT raisonne comme s’il fallait traiter la partie émotionnelle à part alors qu’elle est intégrée dans Anella.

        En effet. Il raisonne sur la question comme Marvin Minsky (c’est déjà pas mal, mais ça ne suffit pas !).

      3. Avatar de PIerre-Yves Dambrine
        PIerre-Yves Dambrine

        Hum en me relisant il y a une autre coquille, je voulais dire bien sûr : « GPT renforce la doxa » (et non pas Anella)

  4. Avatar de ilicitano
    ilicitano

    moi:
    Comme le projet d’IA Anella est très spécifique et est basé sur la dynamique d’affect et ses conséquences sur la perception des émotions, pourriez-vous donner des informations très détaillées sur les besoins :
    1- en spécialistes/profils du domaine correspondant : émotions/interprétations des données
    2- de ces données à collecter auprès des spécialistes qui seront ensuite à même de faire le « tri » des besoins de données de l’apprentissage profond . Merci

    GPT:
    Pour mettre en œuvre un projet d’Intelligence Artificielle (IA) sur le modèle d’Anella, qui est basé sur la dynamique d’affect, il serait nécessaire d’avoir des spécialistes dans les domaines suivants :

    1. **Psychologie** : Les psychologues seraient essentiels pour comprendre la dynamique d’affect et comment elle influence la perception des émotions. Ils pourraient aider à interpréter les résultats du modèle d’IA et à fournir des informations pour améliorer le modèle.

    2. **Neuroscience** : Les neuroscientifiques pourraient aider à comprendre comment le cerveau traite les émotions et comment cela pourrait être modélisé dans un système d’IA.

    3. **Anthropologie culturelle** : Les anthropologues culturels pourraient aider à comprendre comment différentes cultures expriment et interprètent les émotions. Cela pourrait être crucial pour garantir que le modèle d’IA est inclusif et ne présente pas de biais culturels.

    4. **Linguistique** : Les linguistes pourraient aider à comprendre comment les émotions sont exprimées à travers le langage. Cela pourrait être important pour le traitement du langage naturel dans le modèle d’IA.

    En ce qui concerne les données à collecter, il serait nécessaire de recueillir une grande variété de données liées aux émotions. Cela pourrait inclure :

    1. **Textes annotés** : Des textes annotés avec des informations émotionnelles pourraient être utilisés pour entraîner le modèle d’IA à reconnaître et à comprendre la dynamique d’affect.

    2. **Enregistrements vocaux** : Des enregistrements vocaux avec des tonalités émotionnelles pourraient être utilisés pour entraîner le modèle d’IA à reconnaître les émotions à partir de la voix.

    3. **Expressions faciales** : Des images ou des vidéos de personnes exprimant différentes émotions pourraient être utilisées pour entraîner le modèle d’IA à reconnaître les émotions à partir des expressions faciales.

    4. **Données culturelles** : Des données provenant de différentes cultures pourraient être utilisées pour entraîner le modèle d’IA à comprendre comment différentes cultures expriment et interprètent les émotions.

    Il serait également important de travailler en étroite collaboration avec des spécialistes du domaine lors de la sélection et du prétraitement des données pour s’assurer qu’elles sont pertinentes et exemptes de biais.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion

Commentaires récents

  1. Copilot: L’archétype de l’Ombre, selon Carl Jung, représente le “côté obscur” de notre personnalité. C’est une partie de notre inconscient qui…

Articles récents

Catégories

Archives

Tags

Allemagne Aristote bancor BCE Bourse Brexit capitalisme centrale nucléaire de Fukushima ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta