10 réflexions sur « Trends-Tendances : L’indocilité gênante de l’Intelligence Artificielle, le 23 juillet 2020 »

  1. « L’Intelligence Artificielle est à même de tirer des conclusions précieuses à partir de faits émanant du monde tel qu’il est » dès lors que nous traitons de questions pour lesquelles il est possible de constituer une base d’observations d’où toute interaction avec l’humain est exclue. Il s’agirait donc exclusivement de phénomènes physiques au sens large !

    Dans le cas échéant d’une Intelligence Artificielle qui tirerait sa substance de l’observation du cours habituel des choses humaines, nous aurons réussi à fabriquer un formidable outil de consolidation et de perpétuation des sociétés humaines telles qu’elles se présentent au moment de la constitution du Big Data. Par construction une telle Intelligence Artificielle sera politiquement conservatrice et réactionnaire ! Plus qu’un biais algorithmique, il me semble que la question de fond est celle de la cristallisation des sociétés humaines.

    Or que font habituellement les humains en société ? Ils montrent une certaine aptitude voire une appétence à s’interroger sur le cours habituel des choses. L’on reconnaîtra ici, au hasard, un certain Paul Jorion par exemple. Une partie d’entre eux (appelons-les progressistes) n’hésitent pas à s’engager de diverses manières pour faire évoluer « la société telle qu’elle est » donc pour faire dérailler le cours habituel qu’une autre partie (les conservateurs) tiennent absolument à maintenir en l’état.

    Quelle est donc cette caractéristique des humains (que n’ont pas encore le IA) qui les amène à bousculer sans cesse l’ordre établi ? En premier lieu une certaine aptitude à s’interroger sur tout, dès leurs premiers apprentissages. On appellerait ça, pour aller vite, la faculté de philosopher. Ensuite, les humains sont d’autant plus enclins à questionner l’ordre établi que leur vie est régie par lui et qu’il n’est pas égal d’en retirer de la jouissance ou de la peine !

    On pourrait ainsi dire que ce qui fait l’histoire c’est que les humains sont partie prenante de la vie et non de simples observateurs extérieurs comme pourraient l’être des intelligences Artificielles Interactives. Aussi, pour qu’il soit possible de prévenir la cristallisation des sociétés humaines, nous devons doter les IA d’une aptitude à philosopher et surtout les faire vivre « dans leur chair » la diversité des conséquences de leurs décisions : les unes en tirant « jouissance » et d’autres de la « peine » !

    1. On appellerait ça, pour aller vite, la faculté de philosopher.

      Dans Principes des systèmes intelligents (1989), j’appelle cela, à la suite d’un certain Sigmund F. « dynamique d’affect ».

  2. @ Paul Jorion…
    (ça faisait longtemps que la question me démangeais… :¬)

    Que pensez-vous de « La Machine » ?
    (…dans « Le monde des à» de A. E. Van Vogt)

    IA sans préjugés ? —puisque se construisant elle-même en puisant ses sources partout à la fois !
    Sans « démiurge-programmateur » qui voudrait absolument l’orienter dans le sens qui lui plaît.
    A part au début, il y a sûrement eu quelqu’un —quelques uns— ou quelque chose (le temps par exemple ?) pour lancer un tel projet.

      1. Si vous n’avez pas —ou, pire, n’aviez jamais lu « Le monde des non-A » (ou -Ã ou bien « The world of null-A » ?)— je crois que je vais bouder le blog d’un certain Paul Jorion ! ( je crois… 🙂

        Vous savez… cet auteur de « Principe des systèmes intelligents ».

        Bon, c’est 1945, à peu près, peut-être qu’aujourd’hui ça date un peu…
        A vous de voir…
        Bonne journée, bonne santé !

  3. Il est disponible en prêt dans quelques bibliothèques de la Ville de Paris, pour ceux qui peuvent y avoir accès 🙂

  4. @ Paul,
    Tu écris au sujet de l’IA : « celles du milieu syndical parce qu’elle aura mis en évidence que les travailleurs ont parfois tort et les patrons, parfois raison ».
    OK, je veux bien que les patrons aient raison et les travailleurs tort. Le Big Data alimentant l’IA lui en donnera maintes preuves : un patron qui ferme une usine pour sauver l’emploi des travailleurs dans celles restant ouvertes (et incidemment par pure coïncidence, améliorer le cours en bourse de l’entreprise et de ce fait le bonus du patron). En effet les travailleurs virés ont tort. Et tous ces travailleurs qui, post-Covid, ne vont pas arriver à comprendre qu’il faut travailler plus pour gagner moins ils ont vraiment tort de ne pas reconnaître les nobles raisons des patrons…

    Mais il est ainsi clair que l’IA est alimentée dans un cadre que nous refusons : celui où il semble d’éternité qu’il y ait travailleurs et patrons de la même façon que chez les primates il y a des mâles dominants et des dominés.
    Cette assertion est donc très choquante à mes yeux. Elle relève plus du réformisme socialiste que de l’anarchisme. Tout est posé comme si on se doit de rester dans le cadre !
    Tu ajoutes : « Ferons-nous confiance à l’IA ou préférerons-nous faire prévaloir nos anciennes querelles de chapelles ? ».
    Il est à mes yeux inacceptable de résumer la lutte des classes comme d’anciennes querelles de chapelle ».

    Pour ma part, il est clair que je préfère ne pas être « sauvé » de cette manière et il n’est pas question de faire confiance à des IA qui sont congelées dans le cadre actuel.

    Et puisqu’il est fait appel à la fin du « politically correct » je l’appliquerai sur ce blog.
    Ma proposition est non seulement de tout faire pour renverser la table ─ la révolte contre la caste prédatrice ─ mais suivre l’exemple des luddites et casser tout le système qui fait fonctionner les IA : la superstructure financière, les rézossossios, la domination absolue des logiciels sur nous, la fuite éperdue vers des solutions comme la 5G, la connectivité obligatoire etc…

    Casser ces machins, ces machinations, ces machines, oui ! Se libérer vite ! J’en sais le prix (notre système repose sur les technologies informatiques) mais de toutes façons ne rien faire, ne pas réagir sera pire.

  5. L’on peut comprendre qu’il subsiste une plus ou moins grande réticence à accorder une confiance (+ou- grande?) dans l’IA car l’être humain de base éprouve beaucoup de difficultés à conceptualiser le cheminement du raisonnement interne de l’IA lors de la délivrance de sa conclusion (output).
    Au début de la chose, ce sont des humains qui ont écrit les algorithmes, mais ont-ils été vérifiés dans le moindre détail et validés de manière légale ou selon des normes s’imposant à l’unanimité comme pour d’autres logiciels importants (aviation, médical, banque, etc..) ?
    https://www.ibm.com/support/knowledgecenter/fr/SSYMRC_6.0.2/com.ibm.rational.test.qm.doc/topics/c_testcase_overview.html
    Alors que les tests logiciels sont de plus en plus vérifiés maintenant par l’IA :
    https://www.all4test.fr/dossiers-thematiques/lintelligence-artificielle-appliquee-aux-tests-de-logiciels-ai-based-testing/

Les commentaires sont fermés.