« L’Europe propose des règles pour l’intelligence artificielle »

L’un d’entre vous me signale l’article « L’Europe propose des règles pour l’intelligence artificielle » qui fait le bilan des mesures prises récemment à Bruxelles. Il serait à la fois cruel et inutile de souligner le décalage entre mesures législatives et état de la technologie puisqu’il en va toujours ainsi : la seconde progresse toujours dix fois plus vite que la première, c’est la règle !

Je réponds à mon correspondant ce qui suit :

Je lis dans le texte bruxellois : « La proposition n’a pas pour effet de remettre en cause la directive eCommerce.

Ah bon ? Beaucoup de bruit, d’énergies, d’efforts, pour rien alors ? LoL ! (= « pisser dans un violon »).

P.S. Tous les codes éthiques portant sur le transhumanisme, neutralisés d’avance par les dérogations à l’éthique médicale qui ont été introduites au fil des années pour autoriser, puis promouvoir, … la chirurgie esthétique, et cela au nom de … (vous avez droit à 3 réponses…) … la « défense du consommateur » (sic).


Cessons de tourner autour du pot : il y a deux destins possibles pour un nouveau produit ou un nouveau service (l’intelligence artificielle n’étant jamais qu’un cas particulier) :

  • Il intéresse l’armée et dans ce cas-là il est adopté par elle. Tout comité d’éthique est alors quantité négligeable : cf. un récent cas en France, où le comité éthique du ministère de la Défense examinant la question du « soldat augmenté » subordonnait « bien entendu » tout ce qu’il pouvait proclamer par ailleurs à « l’intérêt supérieur de la nation ».

    Une fois adopté par l’armée, tout produit ou service diffuse alors « par osmose » dans le civil.

  • Il intéresse le public, qui l’achète alors sur l’internet. Bonsoir alors toute directive, ou vœu pieux, en provenance de Bruxelles.

J’ai dit : « pisser dans un violon » ? Ah, je n’aurais peut-être pas dû : ce n’est pas très poli  !

Partager :

22 réflexions sur « « L’Europe propose des règles pour l’intelligence artificielle » »

      1. Magdalena Giles,

        Je ne comprends pas bien votre clin d’oeil (le smiley), qu’avez-vous voulu dire ?

        Pour ma part je comprends le « pas de chance de règlementer quoi que ce soit ?  » de Juannessy
        ainsi : puisqu’on ne parvient pas à réglementer dans le domaine de l’IA doit-on cesser de réglementer dans les autres domaines, par exemple dans le domaine de la finance ?
        C’est l’interrogation qui m’est venue immédiatement à la lecture de ce billet.
        Si la réponse doit être négative, alors on comprend mal pourquoi il faudrait cesser d’avoir l’ambition de réglementer l’IA.
        La réglementation de la finance me semble être un domaine où la difficulté de réglementer semble aussi insurmontable.

        J’ai bien écrit « semblent insurmontables » car je me refuse à tout défaitisme.

        5
          1. @ P-Y Dambrine
            Merci pour la correction !

            Je voulais juste appuyer l’article de P.J. car, bien souvent, quand la raison d’état s’en mêle il ne reste plus grand chose à espérer.
            Avec l’armée en particulier…

            En ce qui concerne la finance, j’aimerais bien pouvoir espérer, mais le dragon de « la raison d’état » reste tapi dans un coin, à l’affût !

            Je vous envie sincèrement de pouvoir rester optimiste !
            Vous-même… et les autres…

            En vous souhaitant néanmoins une excellente journée, bien sûr !
            G. M.

            1. Merci à vous !
              Mais la question n’est pas celle de savoir s’il faut être pessimiste ou optimiste, mais de savoir si l’on est combatif sur tous les fronts. Nuance 🙂

              je vois une incohérence dans ce billet, son auteur ne baisse pas les bras quand il s’agit de la finance, mais redouble de pessimisme quand il s’agit d’IA, à moins que ce soit le contraire, qu’il soit en réalité excessivement optimiste en ce domaine.
              S’il faut sauver l’humanité, on ne pourra pas sectoriser, tout devra être régulé, ou rien ne le sera. Donc, si la finance peut être régulée, ipso facto l’IA peut l’être aussi. Tout se tient.

              1. @Pierre-Yves Dambrine,

                J’ai l’impression (mais peut-être suis-je dans l’erreur) que votre ‘tout se tient’ signifie qu’une chose tient l’autre et que l’autre tient la première, concomitamment et symétriquement.

                Peut-être pourriez-vous songer que pour Paul Jorion les choses puissent se tenir de façon non symétrique et qu’il soit possible de mettre en évidence des relations de cause à effet ?

                Dès lors, n’est-il pas cohérent de ne pas baisser les bras pour une chose (au hasard la cause) tout en se montrant plus circonspect pour l’autre (à tout hasard l’effet) en prenant d’ailleurs le soin d’indiquer comment les deux sont liées ?

                Et ne serait-ce pas en définitive une meilleure manière d’être combatif que d’éviter d’appliquer le même effort constant partout en tout temps sans aucune articulation véritable ?

                Bien à vous,

                1. JeNeSauraisVoir,

                  Vous avez raison, il faut articuler les choses. Je poursuis donc ma réflexion avec vous.
                  J’entendais par « tout se tient » que les choses sont solidaires les unes des autres, que l’’économie, la technologie (et à ce titre l’IA)) font système.
                  Ce qui ne signifie pas pour autant qu‘Il n’y a pas de relations de causalité entre les différentes composantes de ce système. Il y a sans doute comme vous le suggérer des leviers de force inégales, sans qu’on puisse préjuger où et quand apparaissent les bons leviers.
                  Ainsi on peut penser qu’une finance sérieusement régulée apporterait un coup d’arrêt à l’hubris du monde, il s’en suivrait alors que les applications les plus dangereuses de l’IA n’auraient plus lieu d’être. Autrement dit le développement de l’IA aujourd’hui s’inscrit dans un environnement de compétition internationale ; on assiste à une fuite en avant qui n’est inéluctable que dans le cadre du système actuel.

                  Nonobstant, il y une objection qui pointe, et c’est la raison pour laquelle je suggérais l’idée que P. Jorion est en réalité est très optimiste s’agissant du développement d l’IA, puisque si je l’entends bien, celle-ci parviendrait à terme au stade où son développement deviendrait Sui-généris se découplant alors du mécanisme de la compétition internationale.

                  Cependant, même si l’idée est audacieuse, elle me semble relever du pari très risqué voire de la prophétie. Rien à mes yeux n’indique que la constitution d’une IA autonome propre à résoudre les questions liées à la survie de l’humanité ne supplante la fuite en avant actuelle d’une IA liée au développement du capitalisme, le capitalisme par rétroaction positive alimentant le développement de l’IA destructrice.

                  C’est la raison pour laquelle c’est le système dans sa globalité qui doit être critiqué et combattu, pas spécialement certaines de ses parties.

                  1. @Pierre-Yves Dambrine,

                    Ce que je lis, moi, dans l’article (et en poétisant un peu) c’est que Paul Jorion est tout ému d’avoir professé une énorme impolitesse avec son “pisser dans un violon” au sujet de la proposition qui n’aurait pas pour effet de remettre en cause la directive eCommerce et que tout honteux, il a entrepris de nous donner une explication.

                    Je n’ai lu nulle part dans cet article le « très optimiste s’agissant du développement de l’IA » que vous évoquez et je dirais même (puisqu’il semble que vous vous référiez à d’autres choses) que cet optimisme immodéré n’empêche apparemment pas son auteur de brandir sa taxe Sismondi au sujet des IA fortes et faibles.

                    Quant à votre incise « sans qu’on puisse préjuger où et quand apparaissent les bons leviers », je n’ai pas écrit cela, je ne pense pas non plus que l’on puisse parler ainsi de la pratique des leviers par Paul Jorion et je comprends que c’est « une surcharge de votre cru » qui fait articulation avec votre raisonnement antérieur prolongé par votre nouveau post.

                    Ne pensez-pas, je vous prie, que je ne veuille pas poursuivre la réflexion avec vous. Il me semble simplement que vous développez une observation dont le lien avec l’article ne saute pas aux yeux. Nous ne pourrions donc en débattre de façon constructive que si nous explorons les différentes couches des sédiments de vos lectures (de Paul Jorion) qui expliquent votre observation.

                    Vous voyez bien que ce n’est pas une mince affaire et que nous pourrions peut-être nous en tenir à l’article et à ce qu’il dit. Je suis persuadé que nous aurons l’occasion de revenir sur l’optimisme de Paul Jorion au sujet de l’IA. Nous aurons alors, j’imagine, un texte permettant de juger sur pièce.

                    Enfin, pardon pour ce long échange qui constitue, si l’on y regarde bien, un commentaire se voulant amical, de la non-réponse de Paul Jorion à vos interpellations successives. Mais peut-être était-ce un peu déplacé de ma part ?

                    Bien à vous,

                    1. C’est exact, je ne me référais pas seulement à l’article, j’en ai fait une lecture en les rapprochant de certains propos de son auteur développés ou suggérés dans d’autres billets ou autres vidéos.

  1. A quand un texte de la Commission Européenne pour réglementer les réglementations européennes ?

    Encore un train de mesures qui n’ont d’autres rôles que de donner l’illusion de la maitrise et du contrôle des risques.

    3
    1. @ Benjamin : je ne sais plus si j’avais cliqué sur le petit pouce vert…
      Mais je tiens à « plussoyer » !
      (sur votre commentaire de 22h10)

  2. Les 3 lois de la robotique, d’Isaac Azimov :
    (Loi zéro : un robot ne peut mettre en péril l’humanité, ou par son inaction , permettre que l’humanité soit mise en péril.)
    Première Loi : un robot ne peut blesser un être humain, ou par son inaction , permettre qu’un être humain soit blessé; sauf quand les conséquences de l’action s’opposent à la loi zéro ;
    Deuxième Loi : un robot doit obéir aux ordres qui lui sont donnés par des êtres humains, sauf quand de tels ordres s’opposent à la Première loi ou à la loi zéro ;
    Troisième Loi : un robot doit protéger sa propre existence aussi longtemps qu’une telle protection ne s’oppose pas à la première ou à la deuxième loi, et à la loi zéro.

    1. Bonjour Joss,
      Asimov avait introduit ces règles aussi pour en faire un jeu logique, et voir justement les cas où elles devenaient intenables… car contradictoires. La réglementation sur ces sujets (réglementer le comportement d’un robot, qui serait donc un androïde, un humain artificiel) n’est pas simple, avec la question aussi juridique, de créer un droit « su generi ».
      Mais l’essentiel n’est pas là je pense, actuellement : il est dans le partage de données, partage parfois… involontaire… :-/
      Pour les données essentielles, vraiment personnelles, alors la position citoyenne revient à se protéger des acteurs dominants (publics : type l’armée) ou privés (qui de toute façon pour les grands acteurs américains, nous ramènent fissa … à elle, qu’elle soit tournée vers l’intérieur ou l’extérieure)
      La réglementation devient alors la traduction d’organisation citoyenne de contre-pouvoirs… sine qua non de démocratie…

  3. La question de la régulation de l’IA peut se poser d‘une manière plus précise : étant donné que les budgets militaires y ont la part prépondérante, l’UE, combien de divisions ?

    Posée d’une manière politique, la même question se dit : est-il possible que l’UE, nain politique, interfère dans la compétition/confrontation USA-Chine pour le leadership mondial, alors que l’IA militaire n’est pas une simple « révolution » mais un « game changer » stratégique ?

    La réponse ci-dessous :
    https://www.nscai.gov/wp-content/uploads/2021/03/Full-Report-Digital-1.pdf

    2
    1. Au fond, la seule chance est que l’armée soit … humaniste.

      Deviendra-t-elle le premier appendice quasi-entièrement transhumain de l’humanité ?
      Formant à sa façon une première instance de « méta-société », entretenant avec celle qui l’a créée pour se protéger des rapports de plus en plus contraints (Appelons cela effet Darmanin-Macron : ma police me protège, je lui obéis) .
      On ne serait pas très loin de la thématique à priori plus planplan de Patrick Boucheron dans son ouvrage sur Sienne « conjurer la peur », avec le risque de la domination sans fin des seigneuries de guerre.

      Retournons le vers (trafiqué) de Brassens dans tous les sens : « (…) Qui beauté eu trop plus qu’humaine, mais où sont les guerres d’antan ? »

      1. « Au fond, la seule chance est que l’armée soit … humaniste. »
        Veux-tu dire qu’un militaire augmenté devient un civil ? (bon, ça c’est fait)

        Tant pis si j’enfonce une porte grande ouverte, mais il me parait rigoureusement impossible de réguler l’IA militaire. Pour au moins quatre grandes raisons :
        – Ce sont des technologies duales : l’IA de la Google Car peut très bien servir de base au pilotage de véhicules militaires terrestres dronisés.
        – Ce sont des technologies discrètes : la recherche peut se faire dans n’importe quel bâtiment noyé dans le tissu urbain.
        – Les essais sont quasiment indétectables : contrairement à un essai nucléaire ou au lancement d’un planeur hypersonique, la manœuvre de pions tactiques pilotés par IA peut être aisément camouflée et passée inaperçue.
        – Le combat homérique des héros grecs aux pieds des remparts de Troie n’est plus vraiment d’actualité. Il s’agit de voir avant, de décider avant, de tuer avant, tout en se tenant hors de portée physique (distance, camouflage, blindage) et temporelle (le fameux OODA) de l’adversaire.

        Si on part du principe que la chose est inévitable, alors la véritable problématique se situe dans le contrôle. À l’Est, nul doute que l’État sera aux manettes, mais quid à l’Ouest où les GAFAM seraient en mesure de créer leurs propres forces robotisées ?!

    2. Soit, le destin de l’IA repose sur sa valeur ajoutée pour l’armée US dans la conservation de sa suprématie hors conflit nucléaire.
      La Chine y voit aussi un moyen de challenger les US.
      La question incontournable est bien évidement, quand l’IA aura accès au bouton nucléaire ?
      Et la question subsidiaire, est de savoir si elle le fera de son propre chef ou c’est l’humanité qui le lui confiera.

  4. Parmi les craintes « politiques » sur l’IA, je ne vois pas les craintes d’orientation « scientifiques » (au sens de la recherche « sincère » genre quête du Graal des réalités et des « vérités » auxquelles accorder crédit).
    En effet qu’est-ce qui nous dit que l’e-learning ne va pas pousser la machine à raisonner par statistiques dans une quête de « véracité collectiviste » , de consensus (comme les journalistes)et non pas dans une quête de connaissances sûres (même si pas consensuelle) susceptibles de provoquer des ruptures épistémologiques.
    Que ferait une machine dont le savoir « collectiviste » acquis vient se heurter à un fait isolé susceptible de mettre à bas l’acquis ; repartirait-elle de zéro dans l’ignorance au risque de la grogne de ses usagers (qui en perdraient quelques fonctions utiles pour eux), ou considérerait-elle le fait perturbateur comme anecdotique ? Que ferait-elle d’une rupture épistémologique la concernant?
    Que serait la recherche sous le joug d’une IA « pilote » qui fabriquerait du plausible invérifiable à l’échelle humaine ? La science pourrait finir en catéchisme…avec ses docteurs de la loi…Ou bien, se mettrait-elle à suivre l’exemple de ce qui s’est passé dans l’histoire de la médecine psychiatrique qui inventait des maladies en changeant le périmètre et les corrélations des symptômes observés pour faire des topologies artificielles, là où l’on espérait des typologies ; l’IA va-t-elle inventer des théories fumeuses, mais semblant vraies dans un ensemble d’interpolation des données commodes tel qu’en fabrique aujourd’hui l’économétrie.
    D’ailleurs certains chercheurs en mal d’inspiration face à des données disparates semblant n’avoir pas de lien entres elles, s’en remettent aux mathématiques pour corréler des « invisibilités » qui leur permettent de faire des explications ad post comme si elles avaient été à l’origine de la découverte de ces liens…
    Enfin l’IA ne risque-t-elle pas d’aggraver les biais cognitifs humains, discriminant tout ce que l’IA ne valide pas? L’IA va-t-elle devenir pour le chercheur la vérité et la réalité elle-même au détriment de ses objets réels d’étude.

    2
  5. Tout cela me fait penser à une « Convention », si je me souviens bien, qui avait ajouté des contraintes aux lois de la guerre, contraintes selon lesquelles les belligérants devaient s’efforcer de « protéger l’environnement ». Voeu pieux, évidemment…
    Si je comprends bien le billet, soit l’objectif est militaire, et toute autre condition est ignorée, soit l’objectif peut être « commercial – d’enrichissement par l’échange », et alors toute autre condition est contre-productive. Bref : entre la prédation et l’appât du gain, il n’y a pas d’autre objectif humain qui tienne.

    2

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.