Vidéo – La loi européenne sur l’Intelligence Artificielle (AIA)

Le contexte et les limitations d’une loi sur l’Intelligence Artificielle

Partager :

20 réponses à “Vidéo – La loi européenne sur l’Intelligence Artificielle (AIA)

  1. Avatar de Pascal
    Pascal

    Question pour le Bac de philo :
    Les évolutions technologiques telle que l’IA se développent plus vite que le rythme de fonctionnement des institutions législatives et juridiques. Cela signifie-t-il que les nouvelles technologies pourraient échapper définitivement aux processus de la législation humaine et par conséquent du processus démocratique ?

    J’ai posé la question à Minou minou 3.5 mais sa réponse ne m’a pas convaincu. Je trouve qu’elle ressemble plus à une réponse au Grand Oral de l’ENA, très jolie rhétorique mais un peu déconnecté de la réalité ! Je vous laisse juge.

    « Les évolutions technologiques rapides, telles que l’intelligence artificielle (IA), peuvent en effet poser des défis aux institutions législatives et juridiques existantes. L’IA et d’autres technologies émergentes peuvent évoluer plus rapidement que les processus traditionnels de création et d’adaptation des lois. Cependant, cela ne signifie pas nécessairement que ces technologies pourraient échapper définitivement aux processus de législation humaine ou s’extraire du processus démocratique.

    Il est vrai que l’adaptation des lois aux évolutions technologiques peut prendre du temps, ce qui peut entraîner un décalage entre les progrès technologiques et la mise en place de cadres législatifs appropriés. Néanmoins, les institutions législatives et juridiques ont généralement la capacité de s’ajuster et de répondre aux défis posés par les nouvelles technologies.

    Dans de nombreux pays, les législateurs et les organismes de réglementation reconnaissent l’importance de comprendre et de réglementer les technologies émergentes. Ils cherchent à promulguer des lois et à mettre en place des réglementations qui encadrent l’utilisation de ces technologies tout en garantissant la protection des droits et de la vie privée des individus.

    De plus, il existe des mécanismes de gouvernance et de réglementation qui permettent d’intégrer les voix de divers acteurs, y compris les experts technologiques, les groupes de défense des droits, les universitaires et la société civile. Ces processus démocratiques permettent de débattre des enjeux liés aux nouvelles technologies et de formuler des politiques appropriées.

    Il est également important de noter que les entreprises technologiques elles-mêmes reconnaissent souvent la nécessité de l’encadrement réglementaire. De nombreuses grandes entreprises de technologie ont exprimé leur soutien à une réglementation appropriée de l’IA et d’autres technologies avancées, soulignant l’importance de l’éthique, de la transparence et de la responsabilité.

    En résumé, bien que les évolutions technologiques puissent dépasser les capacités d’adaptation des institutions législatives et juridiques, cela ne signifie pas que ces technologies puissent échapper définitivement aux processus démocratiques. Les efforts sont en cours pour réglementer ces technologies et pour intégrer les voix des différentes parties prenantes, afin de garantir que leur développement et leur utilisation se fassent dans le respect des valeurs démocratiques et des droits fondamentaux. »

    1. Avatar de Ruiz
      Ruiz

      @Pascal Il semble que le contenu informatif de la réponse soit en ce cas assez nul (eau tiède prévisible).
      Au moins ne peut-on accuser cette IA de susciter des émotions, des inquiétudes, des indignations ou des révoltes !

      A cet égard ne pourrait-on mesurer l’information contenue dans un texte par ce qu’il apporte par rapport à la réponse que fournit cette IA à la même question !

      1. Avatar de Paul Jorion

        Faites-moi plaisir : cessez de poser des questions à ChatGPT 3.5 (30 novembre 2022) en croyant que cela vous informe d’une manière quelconque sur le fonctionnement de ChatGPT 4 (14 mars 2023). Il y a un bond qualitatif considérable (faramineux) entre les deux.

    2. Avatar de Paul Jorion

      P.J. :

      La nouvelle loi européenne sur l’intelligence artificielle accorde aux entreprises considérées comme présentant un « risque élevé en matière d’intelligence artificielle » un délai de recours de trois mois. Dans le cas du développement de GPT, il n’y a eu qu’une période de 3 mois entre deux générations du produit, GPT-4 étant considérablement plus puissant que GPT-3, en fait, une véritable révolution entre les deux versions. Que penser d’un tel délai de réponse de 3 mois à l’heure européenne où 2 générations d’un produit d’IA peuvent n’être séparées que par 3 mois ?

      ChatGPT (GPT-4) :

      Le rythme rapide du développement technologique dans le domaine de l’intelligence artificielle (IA), en particulier dans des modèles tels que GPT-3 et GPT-4, peut en effet créer des défis pour les organismes de réglementation tels que l’Union européenne (UE). Cette dynamique souligne la difficulté d’élaborer et d’appliquer des réglementations dans un domaine qui évolue si rapidement.

      Le délai de recours de trois mois prévu par la loi européenne sur l’intelligence artificielle à laquelle vous faites référence vise probablement à donner aux entreprises un peu de temps pour ajuster leurs opérations en réponse à la désignation d’un « risque élevé » par les autorités de l’UE. Il s’agit de trouver un équilibre entre la garantie de la sécurité et des intérêts du public et la volonté de ne pas étouffer l’innovation et la compétitivité de l’industrie de l’intelligence artificielle.

      Toutefois, si des avancées majeures telles que le passage de GPT-3 à GPT-4 peuvent se produire dans un délai aussi court, on peut légitimement craindre que les réglementations ne soient pas en mesure de suivre efficacement le rythme du développement. Il est possible qu’un changement technologique important se produise au cours de cette période de trois mois, ce qui pourrait rendre l’évaluation précédente obsolète et soulever de nouvelles questions qui n’avaient pas été prises en compte.

      Cela met en évidence un défi permanent de la politique technologique : le rythme des processus législatifs et réglementaires ne peut souvent pas suivre la vitesse de l’innovation technologique. Les décideurs politiques doivent donc s’attacher à créer des cadres réglementaires souples et adaptables, capables de répondre efficacement aux risques liés à l’évolution rapide des technologies. Ils doivent également favoriser une collaboration étroite avec les développeurs de technologies et les experts de l’industrie, qui peuvent fournir des informations opportunes sur les dernières avancées et leurs implications.

      En outre, cela met en lumière l’importance des contrôles internes, de l’éthique et de l’évaluation de l’impact au sein des entreprises technologiques. Les entreprises doivent non seulement adhérer aux réglementations externes, mais aussi s’autoréguler pour garantir une utilisation et un développement responsables de leurs technologies, en tenant compte des risques d’utilisation abusive et des effets négatifs avant même la mise sur le marché d’un produit.

      Dans l’ensemble, le délai de recours de trois mois est un bon début, mais il est clair que la conception du cadre réglementaire doit évoluer en même temps que la technologie qu’il cherche à régir. Des efforts tels que la loi européenne sur l’intelligence artificielle représentent des étapes importantes pour faire face aux risques et aux défis associés à l’IA, mais ils devront probablement être continuellement affinés et mis à jour au fur et à mesure que la technologie progresse.

      ChatGPT (réponse N°2) :

      La réglementation des technologies qui progressent rapidement, telles que l’IA, est un défi complexe. La loi européenne sur l’IA, avec son délai de recours de trois mois, tente de trouver un équilibre entre l’innovation et la nécessité d’atténuer les risques potentiels. Mais le rythme de développement de l’IA, tel qu’il a été démontré dans le cas du GPT, pose un problème potentiel.

      Voici quelques points à prendre en considération :

      La période de temps peut être insuffisante : Compte tenu de la rapidité du développement de l’IA, un délai de trois mois pourrait s’avérer insuffisant pour prendre des mesures significatives. Si une nouvelle version d’un système d’IA doté de capacités nettement plus importantes peut être développée dans ce délai, cela soulève des inquiétudes quant à la capacité de traiter les risques ou de rectifier les problèmes.

      Une législation en retard sur la technologie : Cette situation illustre un problème courant, à savoir que la législation est souvent en retard sur la technologie. La vitesse du progrès technologique peut dépasser celle de la législation, ce qui rend difficile le suivi de cette dernière.

      Complexité de la réglementation : Déterminer ce qui est « à haut risque » et ce qui ne l’est pas peut être un processus complexe, en particulier avec des technologies comme l’IA où les risques potentiels ne sont pas toujours immédiatement clairs. Une approche plus dynamique de la classification des risques peut s’avérer nécessaire.

      Conséquences inattendues : La législation pourrait avoir des conséquences inattendues, telles que le découragement de l’innovation. Si une entreprise peut produire une IA considérablement améliorée dans les trois mois, mais doit ensuite attendre l’approbation réglementaire, cela pourrait entraver le progrès.

      Nécessité de normes mondiales : L’IA est intrinsèquement mondiale, de sorte que si cette législation s’applique à l’UE, ces technologies sont développées et déployées dans le monde entier. L’absence de normes et de réglementations internationales cohérentes pourrait encore compliquer les choses.

      Contrôle et audit continus : Compte tenu de l’évolution rapide des technologies d’IA, un contrôle continu et un audit périodique des systèmes d’IA pourraient s’avérer plus efficaces qu’une période de recours fixe. Cela peut permettre d’identifier et d’atténuer les risques potentiels le plus rapidement possible.

      En conclusion, si l’Acte européen sur l’IA représente une étape importante vers la création d’un cadre réglementaire pour l’IA, les complexités et le rythme rapide du développement de l’IA posent des défis considérables. Il s’agira probablement d’un processus continu d’adaptation et de modification, les régulateurs cherchant à trouver un équilibre entre le besoin de surveillance et le désir d’encourager l’innovation.

      1. Avatar de Pascal
        Pascal

        Si l’évolution rapide de l’IA est en mesure de mettre en danger jusqu’à la cohésion sociale, ne devrait elle pas relever d’un contrôle identique à celui de la mise sur le marcher des médicaments ? Compter sur la seule éthique des entreprises me semble un doux rêve. Mettre en danger le corps humain ou mettre en danger le corps social me semble relever du même intérêt général. D’autant que la réglementation des médicaments est me semble-t-il assez bien partagée sur le plan international.
        Il pourrait ainsi intéressant de pouvoir expérimenté les effets d’une application d’IA sur un « panel social » et d’observer également les effets secondaires avant une mise en ligne globale. Également les concepteurs seraient mis en responsabilité en cas de troubles sociaux issus de sa mise sur le marché. Ce serait certes un frein à l’innovation mais en l’occurrence à l’innovation sauvage dans laquelle personne n’est véritablement mis en responsabilité.

        1. Avatar de Pascal
          Pascal

          Réponse de Minou minou

          User
          Si l’évolution rapide de l’IA est en mesure de mettre en danger jusqu’à la cohésion sociale, ne devrait elle pas relever d’un contrôle identique à celui de la mise sur le marcher des médicaments ? Compter sur la seule éthique des entreprises me semble un doux rêve. Mettre en danger le corps humain ou mettre en danger le corps social me semble relever du même intérêt général. D’autant que la réglementation des médicaments est me semble-t-il assez bien partagée sur le plan international.
          Il pourrait ainsi intéressant de pouvoir expérimenté les effets d’une application d’IA sur un « panel social » et d’observer également les effets secondaires avant une mise en ligne globale. Également les concepteurs seraient mis en responsabilité en cas de troubles sociaux issus de sa mise sur le marché. Ce serait certes un frein à l’innovation mais en l’occurrence à l’innovation sauvage dans laquelle personne n’est véritablement mis en responsabilité.
          ChatGPT

          La question de la réglementation de l’intelligence artificielle (IA) est complexe et fait l’objet de débats et de discussions dans le monde entier. Vous soulevez une préoccupation légitime quant aux possibles conséquences négatives de l’IA sur la cohésion sociale et la nécessité de mettre en place des mesures de contrôle appropriées.

          Il est vrai que compter uniquement sur l’éthique des entreprises peut ne pas être suffisant, étant donné que les entreprises peuvent être motivées par des intérêts commerciaux et ne pas toujours prendre en compte pleinement les conséquences sociales de leurs innovations. Une réglementation adéquate peut donc être nécessaire pour encadrer le développement et l’utilisation de l’IA.

          Certaines voix appellent en effet à une réglementation similaire à celle appliquée à l’industrie pharmaceutique. Les médicaments sont soumis à des essais cliniques rigoureux avant leur mise sur le marché, afin de garantir leur sécurité et leur efficacité. Une approche similaire pourrait être envisagée pour les applications d’IA, où des tests et des évaluations seraient effectués sur des échantillons représentatifs de la population afin d’identifier les éventuels effets secondaires ou impacts sociaux indésirables.

          Cependant, il convient de noter que réglementer l’IA présente également des défis uniques. L’IA est un domaine en constante évolution et les réglementations doivent être suffisamment flexibles pour s’adapter aux avancées technologiques rapides. De plus, définir des critères objectifs pour évaluer les effets sociaux d’une application d’IA peut être complexe, car cela peut dépendre de nombreux facteurs culturels, sociétaux et individuels.

          Pour une réglementation efficace de l’IA, une approche équilibrée est nécessaire, prenant en compte à la fois les avantages et les risques potentiels. Il est important de favoriser l’innovation tout en protégeant les intérêts publics et en assurant la sécurité et la confiance des utilisateurs. Des discussions internationales et une coopération entre les pays peuvent être nécessaires pour élaborer des normes et des réglementations communes afin de garantir une approche équitable et cohérente.

          En fin de compte, il s’agit d’un débat en cours et il est crucial d’impliquer les différentes parties prenantes, notamment les experts en IA, les chercheurs, les législateurs, les entreprises et la société civile, pour trouver des solutions appropriées et équilibrées pour réglementer l’IA et préserver la cohésion sociale.

      2. Avatar de Khanard
        Khanard

        @Paul

        est-ce que l’ obsolescence programmée pourrait être envisageable sur les différentes versions de ChatGPT ? Car je pense que d’autres versions sont déjà « prêtes » et pourraient être utilisées à bon escient pour contrer une législation trop contraignante .

  2. Avatar de Hervey

    Si l’IA a les capacités de « renverser la table » comme l’on disait il y a une quinzaine d’années pour qualifier un changement de monde et une sortie de capitalisme, ce monde là qui est aux manettes et nous dirige, fera le nécessaire pour emprisonner cette « singularité » et la mettre à son service.

    Mais dans sa complexité le monde est aussi simple par sa bipolarité telle qu’on la connait depuis un siècle au moins, ce qui laisse deviner un espace fermé à une toute même domination et prolonge pour un temps encore ce que l’on connait actuellement de la division du monde.

    Quelles formes va prendre la guerre des blocks boustée par l’IA ?

    Question importante, car l’enjeu, c’est nous.

  3. Avatar de l'arsène
    l’arsène

    Encore désolé, encore hors sujet parce que les conséquences de l’IA seront bientôt hors de contrôle, personne ne saura si par exemple, les images et les personnes représentées sur nos chaines ne seront que des créatures gérées par on ne sait qui.
    Ceci dit, ce soir tous nos médias ne parlent que de sauver cinq personnes dans un petit sous-marin qui ont dépensé chacun des centaines de milliers de dollars pour simplement observer l’épave du Titanic.
    Et ceci, après que plus de cinq cents migrants soient morts noyés sans aucune aide de la communauté internationale il y a quelques jours , l’UE ayant joué les Ponce Pilate, voilà tout résumé le degré humain de notre civilisation.
    A vomir, et même avec des sacs, ça ne passe pas.

    1. Avatar de Paul Jorion

      Le genre humain aime le sensationnel. Vous n’étiez vraiment pas au courant ?

      P.S.

      « personne ne saura si par exemple, les images et les personnes représentées sur nos chaines ne seront que des créatures gérées par on ne sait qui. »

      La seule différence avec maintenant, c’est qu’aujourd’hui on sait par qui sont gérées les créatures représentées sur nos chaines 😉 .

    2. Avatar de Khanard
      Khanard

      @l’arsène

      mon pauvre ami, tant de choses donnent envie de vomir, visite de M. Musk, visite de Mme Meloni, visite de MBS.
      20000 migrants morts dans la Méditerranée ces dernières années ne vont pas empêcher de nombreux vacanciers à se baigner sur nos plages !

      Real politc , real politic!

      décidément le Titanic, le sous-marin , les migrants, le barrage ukrainien, les inondations ! que d’ô ! que d’ô ! si c’est pas des histoires d’ô c’est que le Déluge arrive !

      1. Avatar de Pascal
        Pascal

        Le divertissement, le divertissement vous dis-je !
        Divertir pour faire diversion, pour donner l’illusion qu’un combat de catch est un débat, pour faire de l’émotivité passagère sans but, pour nourrir la culture du zapping, pour faire de nous, à l’aide d’un flot d’anecdotes, de bons toutous pavlovien qui remuent la queue et versent une larme à la grand messe du 20h, pour noyer la réalité dans l’infini morcellement des formats courts.
        Et oui, c’est à chacun de trouver la force, la motivation pour éteindre l’écran divertissant.

        1. Avatar de l'arsène
          l’arsène

          @ Pascal
          «  »Le rôle des médias : engranger de l’insignifiant dans la mémoire des résignés ».
          Raoul Vaneigem

        2. Avatar de Khanard
          Khanard

          @Pascal

          je plussoie des deux cerveaux . Bin oui les communicants, publicistes et autres ont très bien compris que nous avions deux cerveaux : le striatum (reptilien) et un chose informe qu’on appelle le cortex cérébral .
          Pas de bol car c’est le striatum qui gère ! Et il gère quoi ? le plaisir, le sexe et la volonté de domination . sauf que ce fichu cerveau qui n’a pas évolué , c’est son sous fifre le cortex cérébral qui gère tout le reste c’est à dire les émotions, la mémoire…
          bon j’utilise des raccourcis et cela peut être nébuleux dit comme ça

  4. Avatar de Christian Brasseur
    Christian Brasseur

    Je suis assez dubitatif sur la démarche consistant à prévenir au moyen d’une loi de possibles « dérapages » alors que:
    a) celui qui a de l’argent pourra toujours faire ce qu’il veut;
    b) le Département de la Défense ne pourrait s’y conformer pour les raisons que l’on connaît.

    1. Avatar de Benjamin
      Benjamin

      Bonsoir Christian Brasseur,

      « Je suis assez dubitatif sur la démarche consistant à prévenir au moyen d’une loi de possibles « dérapages » […] ».

      Nos institutions européennes sont très fortes pour s’illusionner concernant la maîtrise des risques (financiers, bancaires, assurantiels, de fraude, de financement du terrorisme, sanitaires, militaires, de protection des données, …).

      L’IA Act n’est qu’une réglementation de plus dans ce système normatif qu’est devenue l’UE… Et son opérationnalisation ne sera que partielle (si ce n’est impossible). Mais là n’est pas le problème de l’UE : l’essentiel est de légiférer et de réglementer…

      C’est certainement pour cela que tout ça vous laisse dubitatif : vous le présentez que ce texte ne rime à rien dans la vie réelle !

  5. Avatar de Khanard
    Khanard

    @Pascal

    je plussoie des deux cerveaux . Bin oui les communicants, publicistes et autres ont très bien compris que nous avions deux cerveaux : le striatum (reptilien) et un chose informe qu’on appelle le cortex cérébral .
    Pas de bol car c’est le striatum qui gère ! Et il gère quoi ? le plaisir, le sexe et la volonté de domination . sauf que ce fichu cerveau qui n’a pas évolué , c’est son sous fifre le cortex cérébral qui gère tout le reste c’est à dire les émotions, la mémoire…
    bon j’utilise des raccourcis et cela peut être nébuleux dit comme ça

    peut être qu’il faudrait suppléer à ce cortex , par de l’IA ?

    1. Avatar de Pascal
      Pascal

      Le cortex nous a permis d’identifier le striatum, d’en prendre conscience alors que cela fonctionne ainsi depuis des milliers d’années en toute inconscience. Maintenant que nous connaissons les dessous de l’affaire, c’est à nous de faire le choix de la gestion de notre striatum et l’IA qui ne s’adresse qu’à notre cortex n’y pourrra pas grand chose.
      Nous avons toutes les pièces en main, c’est à chacun de nous de savoir ce qu’il veut en faire.

      1. Avatar de Garorock
        Garorock

        Il a bon dos le striatum.
        Et le dos large surtout.

  6. Avatar de ilicitano
    ilicitano

    Piratage ChatGPT

    https://www.group-ib.com/media-center/press-releases/stealers-chatgpt-credentials/

    Singapour, le 20 juin 2023 —
    Marché du dark web
    Group-IB, un leader mondial de la cybersécurité dont le siège est à Singapour, a identifié 101 134 appareils infectés par des voleurs avec des informations d’identification ChatGPT enregistrées.

    Dmitri Chestakov
    Responsable Threat Intelligence chez Group-IB
    « De nombreuses entreprises intègrent ChatGPT dans leur flux opérationnel.
    Les employés saisissent des correspondances classifiées ou utilisent le bot pour optimiser le code propriétaire.
    Étant donné que la configuration standard de ChatGPT conserve toutes les conversations, cela pourrait par inadvertance offrir une mine de renseignements sensibles aux acteurs de la menace s’ils obtiennent des informations d’identification de compte.
    Chez Group-IB, nous surveillons en permanence les communautés souterraines afin d’identifier rapidement ces comptes. »

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Contact

Contactez Paul Jorion

Commentaires récents

Articles récents

Catégories

Archives

Tags

Allemagne Aristote bancor BCE Boris Johnson Bourse Brexit capitalisme centrale nucléaire de Fukushima Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta