« L’Europe propose des règles pour l’intelligence artificielle »

L’un d’entre vous me signale l’article « L’Europe propose des règles pour l’intelligence artificielle » qui fait le bilan des mesures prises récemment à Bruxelles. Il serait à la fois cruel et inutile de souligner le décalage entre mesures législatives et état de la technologie puisqu’il en va toujours ainsi : la seconde progresse toujours dix fois plus vite que la première, c’est la règle !

Je réponds à mon correspondant ce qui suit :

Je lis dans le texte bruxellois : « La proposition n’a pas pour effet de remettre en cause la directive eCommerce.

Ah bon ? Beaucoup de bruit, d’énergies, d’efforts, pour rien alors ? LoL ! (= « pisser dans un violon »).

P.S. Tous les codes éthiques portant sur le transhumanisme, neutralisés d’avance par les dérogations à l’éthique médicale qui ont été introduites au fil des années pour autoriser, puis promouvoir, … la chirurgie esthétique, et cela au nom de … (vous avez droit à 3 réponses…) … la « défense du consommateur » (sic).


Cessons de tourner autour du pot : il y a deux destins possibles pour un nouveau produit ou un nouveau service (l’intelligence artificielle n’étant jamais qu’un cas particulier) :

  • Il intéresse l’armée et dans ce cas-là il est adopté par elle. Tout comité d’éthique est alors quantité négligeable : cf. un récent cas en France, où le comité éthique du ministère de la Défense examinant la question du « soldat augmenté » subordonnait « bien entendu » tout ce qu’il pouvait proclamer par ailleurs à « l’intérêt supérieur de la nation ».

    Une fois adopté par l’armée, tout produit ou service diffuse alors « par osmose » dans le civil.

  • Il intéresse le public, qui l’achète alors sur l’internet. Bonsoir alors toute directive, ou vœu pieux, en provenance de Bruxelles.

J’ai dit : « pisser dans un violon » ? Ah, je n’aurais peut-être pas dû : ce n’est pas très poli  !

Partager :

22 réponses à “« L’Europe propose des règles pour l’intelligence artificielle »

  1. Avatar de Juannessy
    Juannessy

    Conclusion , pas de chance de règlementer quoi que ce soit ?

    1. Avatar de Maddalena Gilles
      Maddalena Gilles

      Aucune !
      😉

      1. Avatar de Pierre-Yves Dambrine
        Pierre-Yves Dambrine

        Magdalena Giles,

        Je ne comprends pas bien votre clin d’oeil (le smiley), qu’avez-vous voulu dire ?

        Pour ma part je comprends le « pas de chance de règlementer quoi que ce soit ?  » de Juannessy
        ainsi : puisqu’on ne parvient pas à réglementer dans le domaine de l’IA doit-on cesser de réglementer dans les autres domaines, par exemple dans le domaine de la finance ?
        C’est l’interrogation qui m’est venue immédiatement à la lecture de ce billet.
        Si la réponse doit être négative, alors on comprend mal pourquoi il faudrait cesser d’avoir l’ambition de réglementer l’IA.
        La réglementation de la finance me semble être un domaine où la difficulté de réglementer semble aussi insurmontable.

        J’ai bien écrit « semblent insurmontables » car je me refuse à tout défaitisme.

        1. Avatar de Pierre-Yves Dambrine
          Pierre-Yves Dambrine

          je reprends : Maddalena Gilles
          , …

          1. Avatar de Maddalena Gilles
            Maddalena Gilles

            @ P-Y Dambrine
            Merci pour la correction !

            Je voulais juste appuyer l’article de P.J. car, bien souvent, quand la raison d’état s’en mêle il ne reste plus grand chose à espérer.
            Avec l’armée en particulier…

            En ce qui concerne la finance, j’aimerais bien pouvoir espérer, mais le dragon de « la raison d’état » reste tapi dans un coin, à l’affût !

            Je vous envie sincèrement de pouvoir rester optimiste !
            Vous-même… et les autres…

            En vous souhaitant néanmoins une excellente journée, bien sûr !
            G. M.

            1. Avatar de Pierre-Yves Dambrine
              Pierre-Yves Dambrine

              Merci à vous !
              Mais la question n’est pas celle de savoir s’il faut être pessimiste ou optimiste, mais de savoir si l’on est combatif sur tous les fronts. Nuance 🙂

              je vois une incohérence dans ce billet, son auteur ne baisse pas les bras quand il s’agit de la finance, mais redouble de pessimisme quand il s’agit d’IA, à moins que ce soit le contraire, qu’il soit en réalité excessivement optimiste en ce domaine.
              S’il faut sauver l’humanité, on ne pourra pas sectoriser, tout devra être régulé, ou rien ne le sera. Donc, si la finance peut être régulée, ipso facto l’IA peut l’être aussi. Tout se tient.

              1. Avatar de JeNeSauraisVoir
                JeNeSauraisVoir

                @Pierre-Yves Dambrine,

                J’ai l’impression (mais peut-être suis-je dans l’erreur) que votre ‘tout se tient’ signifie qu’une chose tient l’autre et que l’autre tient la première, concomitamment et symétriquement.

                Peut-être pourriez-vous songer que pour Paul Jorion les choses puissent se tenir de façon non symétrique et qu’il soit possible de mettre en évidence des relations de cause à effet ?

                Dès lors, n’est-il pas cohérent de ne pas baisser les bras pour une chose (au hasard la cause) tout en se montrant plus circonspect pour l’autre (à tout hasard l’effet) en prenant d’ailleurs le soin d’indiquer comment les deux sont liées ?

                Et ne serait-ce pas en définitive une meilleure manière d’être combatif que d’éviter d’appliquer le même effort constant partout en tout temps sans aucune articulation véritable ?

                Bien à vous,

                1. Avatar de Pierre-Yves Dambrine
                  Pierre-Yves Dambrine

                  JeNeSauraisVoir,

                  Vous avez raison, il faut articuler les choses. Je poursuis donc ma réflexion avec vous.
                  J’entendais par « tout se tient » que les choses sont solidaires les unes des autres, que l’’économie, la technologie (et à ce titre l’IA)) font système.
                  Ce qui ne signifie pas pour autant qu‘Il n’y a pas de relations de causalité entre les différentes composantes de ce système. Il y a sans doute comme vous le suggérer des leviers de force inégales, sans qu’on puisse préjuger où et quand apparaissent les bons leviers.
                  Ainsi on peut penser qu’une finance sérieusement régulée apporterait un coup d’arrêt à l’hubris du monde, il s’en suivrait alors que les applications les plus dangereuses de l’IA n’auraient plus lieu d’être. Autrement dit le développement de l’IA aujourd’hui s’inscrit dans un environnement de compétition internationale ; on assiste à une fuite en avant qui n’est inéluctable que dans le cadre du système actuel.

                  Nonobstant, il y une objection qui pointe, et c’est la raison pour laquelle je suggérais l’idée que P. Jorion est en réalité est très optimiste s’agissant du développement d l’IA, puisque si je l’entends bien, celle-ci parviendrait à terme au stade où son développement deviendrait Sui-généris se découplant alors du mécanisme de la compétition internationale.

                  Cependant, même si l’idée est audacieuse, elle me semble relever du pari très risqué voire de la prophétie. Rien à mes yeux n’indique que la constitution d’une IA autonome propre à résoudre les questions liées à la survie de l’humanité ne supplante la fuite en avant actuelle d’une IA liée au développement du capitalisme, le capitalisme par rétroaction positive alimentant le développement de l’IA destructrice.

                  C’est la raison pour laquelle c’est le système dans sa globalité qui doit être critiqué et combattu, pas spécialement certaines de ses parties.

                  1. Avatar de JeNeSauraisVoir
                    JeNeSauraisVoir

                    @Pierre-Yves Dambrine,

                    Ce que je lis, moi, dans l’article (et en poétisant un peu) c’est que Paul Jorion est tout ému d’avoir professé une énorme impolitesse avec son “pisser dans un violon” au sujet de la proposition qui n’aurait pas pour effet de remettre en cause la directive eCommerce et que tout honteux, il a entrepris de nous donner une explication.

                    Je n’ai lu nulle part dans cet article le « très optimiste s’agissant du développement de l’IA » que vous évoquez et je dirais même (puisqu’il semble que vous vous référiez à d’autres choses) que cet optimisme immodéré n’empêche apparemment pas son auteur de brandir sa taxe Sismondi au sujet des IA fortes et faibles.

                    Quant à votre incise « sans qu’on puisse préjuger où et quand apparaissent les bons leviers », je n’ai pas écrit cela, je ne pense pas non plus que l’on puisse parler ainsi de la pratique des leviers par Paul Jorion et je comprends que c’est « une surcharge de votre cru » qui fait articulation avec votre raisonnement antérieur prolongé par votre nouveau post.

                    Ne pensez-pas, je vous prie, que je ne veuille pas poursuivre la réflexion avec vous. Il me semble simplement que vous développez une observation dont le lien avec l’article ne saute pas aux yeux. Nous ne pourrions donc en débattre de façon constructive que si nous explorons les différentes couches des sédiments de vos lectures (de Paul Jorion) qui expliquent votre observation.

                    Vous voyez bien que ce n’est pas une mince affaire et que nous pourrions peut-être nous en tenir à l’article et à ce qu’il dit. Je suis persuadé que nous aurons l’occasion de revenir sur l’optimisme de Paul Jorion au sujet de l’IA. Nous aurons alors, j’imagine, un texte permettant de juger sur pièce.

                    Enfin, pardon pour ce long échange qui constitue, si l’on y regarde bien, un commentaire se voulant amical, de la non-réponse de Paul Jorion à vos interpellations successives. Mais peut-être était-ce un peu déplacé de ma part ?

                    Bien à vous,

                    1. Avatar de Pierre-Yves Dambrine
                      Pierre-Yves Dambrine

                      C’est exact, je ne me référais pas seulement à l’article, j’en ai fait une lecture en les rapprochant de certains propos de son auteur développés ou suggérés dans d’autres billets ou autres vidéos.

  2. Avatar de Benjamin
    Benjamin

    A quand un texte de la Commission Européenne pour réglementer les réglementations européennes ?

    Encore un train de mesures qui n’ont d’autres rôles que de donner l’illusion de la maitrise et du contrôle des risques.

    1. Avatar de Maddalena Gilles
      Maddalena Gilles

      @ Benjamin : je ne sais plus si j’avais cliqué sur le petit pouce vert…
      Mais je tiens à « plussoyer » !
      (sur votre commentaire de 22h10)

  3. Avatar de joss
    joss

    Les 3 lois de la robotique, d’Isaac Azimov :
    (Loi zéro : un robot ne peut mettre en péril l’humanité, ou par son inaction , permettre que l’humanité soit mise en péril.)
    Première Loi : un robot ne peut blesser un être humain, ou par son inaction , permettre qu’un être humain soit blessé; sauf quand les conséquences de l’action s’opposent à la loi zéro ;
    Deuxième Loi : un robot doit obéir aux ordres qui lui sont donnés par des êtres humains, sauf quand de tels ordres s’opposent à la Première loi ou à la loi zéro ;
    Troisième Loi : un robot doit protéger sa propre existence aussi longtemps qu’une telle protection ne s’oppose pas à la première ou à la deuxième loi, et à la loi zéro.

    1. Avatar de Unasc
      Unasc

      Bonjour Joss,
      Asimov avait introduit ces règles aussi pour en faire un jeu logique, et voir justement les cas où elles devenaient intenables… car contradictoires. La réglementation sur ces sujets (réglementer le comportement d’un robot, qui serait donc un androïde, un humain artificiel) n’est pas simple, avec la question aussi juridique, de créer un droit « su generi ».
      Mais l’essentiel n’est pas là je pense, actuellement : il est dans le partage de données, partage parfois… involontaire… :-/
      Pour les données essentielles, vraiment personnelles, alors la position citoyenne revient à se protéger des acteurs dominants (publics : type l’armée) ou privés (qui de toute façon pour les grands acteurs américains, nous ramènent fissa … à elle, qu’elle soit tournée vers l’intérieur ou l’extérieure)
      La réglementation devient alors la traduction d’organisation citoyenne de contre-pouvoirs… sine qua non de démocratie…

  4. Avatar de Roberto Boulant
    Roberto Boulant

    La question de la régulation de l’IA peut se poser d‘une manière plus précise : étant donné que les budgets militaires y ont la part prépondérante, l’UE, combien de divisions ?

    Posée d’une manière politique, la même question se dit : est-il possible que l’UE, nain politique, interfère dans la compétition/confrontation USA-Chine pour le leadership mondial, alors que l’IA militaire n’est pas une simple « révolution » mais un « game changer » stratégique ?

    La réponse ci-dessous :
    https://www.nscai.gov/wp-content/uploads/2021/03/Full-Report-Digital-1.pdf

    1. Avatar de timiota
      timiota

      Au fond, la seule chance est que l’armée soit … humaniste.

      Deviendra-t-elle le premier appendice quasi-entièrement transhumain de l’humanité ?
      Formant à sa façon une première instance de « méta-société », entretenant avec celle qui l’a créée pour se protéger des rapports de plus en plus contraints (Appelons cela effet Darmanin-Macron : ma police me protège, je lui obéis) .
      On ne serait pas très loin de la thématique à priori plus planplan de Patrick Boucheron dans son ouvrage sur Sienne « conjurer la peur », avec le risque de la domination sans fin des seigneuries de guerre.

      Retournons le vers (trafiqué) de Brassens dans tous les sens : « (…) Qui beauté eu trop plus qu’humaine, mais où sont les guerres d’antan ? »

      1. Avatar de Roberto Boulant
        Roberto Boulant

        « Au fond, la seule chance est que l’armée soit … humaniste. »
        Veux-tu dire qu’un militaire augmenté devient un civil ? (bon, ça c’est fait)

        Tant pis si j’enfonce une porte grande ouverte, mais il me parait rigoureusement impossible de réguler l’IA militaire. Pour au moins quatre grandes raisons :
        – Ce sont des technologies duales : l’IA de la Google Car peut très bien servir de base au pilotage de véhicules militaires terrestres dronisés.
        – Ce sont des technologies discrètes : la recherche peut se faire dans n’importe quel bâtiment noyé dans le tissu urbain.
        – Les essais sont quasiment indétectables : contrairement à un essai nucléaire ou au lancement d’un planeur hypersonique, la manœuvre de pions tactiques pilotés par IA peut être aisément camouflée et passée inaperçue.
        – Le combat homérique des héros grecs aux pieds des remparts de Troie n’est plus vraiment d’actualité. Il s’agit de voir avant, de décider avant, de tuer avant, tout en se tenant hors de portée physique (distance, camouflage, blindage) et temporelle (le fameux OODA) de l’adversaire.

        Si on part du principe que la chose est inévitable, alors la véritable problématique se situe dans le contrôle. À l’Est, nul doute que l’État sera aux manettes, mais quid à l’Ouest où les GAFAM seraient en mesure de créer leurs propres forces robotisées ?!

      2. Avatar de Roberto Boulant
        Roberto Boulant

        Argh ! La manœuvre peut passer inaperçue, mais pas les fautes d’orthographe…

    2. Avatar de un lecteur
      un lecteur

      Soit, le destin de l’IA repose sur sa valeur ajoutée pour l’armée US dans la conservation de sa suprématie hors conflit nucléaire.
      La Chine y voit aussi un moyen de challenger les US.
      La question incontournable est bien évidement, quand l’IA aura accès au bouton nucléaire ?
      Et la question subsidiaire, est de savoir si elle le fera de son propre chef ou c’est l’humanité qui le lui confiera.

  5. Avatar de Dalla Vecchia Luigi
    Dalla Vecchia Luigi

    Parmi les craintes « politiques » sur l’IA, je ne vois pas les craintes d’orientation « scientifiques » (au sens de la recherche « sincère » genre quête du Graal des réalités et des « vérités » auxquelles accorder crédit).
    En effet qu’est-ce qui nous dit que l’e-learning ne va pas pousser la machine à raisonner par statistiques dans une quête de « véracité collectiviste » , de consensus (comme les journalistes)et non pas dans une quête de connaissances sûres (même si pas consensuelle) susceptibles de provoquer des ruptures épistémologiques.
    Que ferait une machine dont le savoir « collectiviste » acquis vient se heurter à un fait isolé susceptible de mettre à bas l’acquis ; repartirait-elle de zéro dans l’ignorance au risque de la grogne de ses usagers (qui en perdraient quelques fonctions utiles pour eux), ou considérerait-elle le fait perturbateur comme anecdotique ? Que ferait-elle d’une rupture épistémologique la concernant?
    Que serait la recherche sous le joug d’une IA « pilote » qui fabriquerait du plausible invérifiable à l’échelle humaine ? La science pourrait finir en catéchisme…avec ses docteurs de la loi…Ou bien, se mettrait-elle à suivre l’exemple de ce qui s’est passé dans l’histoire de la médecine psychiatrique qui inventait des maladies en changeant le périmètre et les corrélations des symptômes observés pour faire des topologies artificielles, là où l’on espérait des typologies ; l’IA va-t-elle inventer des théories fumeuses, mais semblant vraies dans un ensemble d’interpolation des données commodes tel qu’en fabrique aujourd’hui l’économétrie.
    D’ailleurs certains chercheurs en mal d’inspiration face à des données disparates semblant n’avoir pas de lien entres elles, s’en remettent aux mathématiques pour corréler des « invisibilités » qui leur permettent de faire des explications ad post comme si elles avaient été à l’origine de la découverte de ces liens…
    Enfin l’IA ne risque-t-elle pas d’aggraver les biais cognitifs humains, discriminant tout ce que l’IA ne valide pas? L’IA va-t-elle devenir pour le chercheur la vérité et la réalité elle-même au détriment de ses objets réels d’étude.

  6. Avatar de Chabian
    Chabian

    Tout cela me fait penser à une « Convention », si je me souviens bien, qui avait ajouté des contraintes aux lois de la guerre, contraintes selon lesquelles les belligérants devaient s’efforcer de « protéger l’environnement ». Voeu pieux, évidemment…
    Si je comprends bien le billet, soit l’objectif est militaire, et toute autre condition est ignorée, soit l’objectif peut être « commercial – d’enrichissement par l’échange », et alors toute autre condition est contre-productive. Bref : entre la prédation et l’appât du gain, il n’y a pas d’autre objectif humain qui tienne.

  7. Avatar de joss
    joss

    ‘Si nous ne promulguons pas les lois qui protégeront le public à l’avenir, nous allons constater que la technologie avance à toute allure, et il sera très difficile de la rattraper’, a déploré Brad Smith (président de Microsoft)
    https://fr.businessam.be/si-on-ne-fait-rien-1984-dorwell-deviendra-realite-dans-trois-ans-et-cest-le-president-de-microsoft-qui-le-dit/

Répondre à Maddalena Gilles Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion

Commentaires récents

Articles récents

Catégories

Archives

Tags

Allemagne Aristote bancor BCE Bourse Brexit capitalisme centrale nucléaire de Fukushima ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta