La vraie raison pour laquelle l’intelligence artificielle fait peur, par Jean-Baptiste Auxiètre

Billet invité. Ouvert aux commentaires.

L’intelligence artificielle ne va pas à proprement parler remplacer la plupart des tâches du travail. En effet la plus grande part du travail va être remplacée non pas par l’intelligence artificielle mais plus simplement par des algorithmes. En effet la plupart des tâches effectuées par les personnes dans leur travail ne correspond qu’à une ou quelques centaines d’opérations élémentaires.

Même les tâches qui étaient considérées comme les plus compliquées comme celles des traders ont été remplacées pratiquement uniquement par des algorithmes et qui se sont avérés infiniment plus efficaces que l’humain sans qu’il y ait besoin de faire appel au départ à l’intelligence artificielle. En tant qu’informaticien je suis « hélas » capable après analyse de remplacer une bonne part des tâches dites de bureau par des algorithmes qui se limitent à quelques conditions et quelques boucles, génération de rapport et envoi à la personne, ou génération de données à la machine suivante concernée, qui les traitera.

Où l’intelligence artificielle interviendra-t-elle alors ?

Elle sera utilisée pour observer dans un premier temps votre travail et en déduire l’algorithme qui lui vous remplacera ensuite.

Ce qui se passera alors c’est qu’on s’apercevra que les décisions réelles ne sont pas prises comme on l’imagine pour des raisons de fait déterminées par l’obtention du résultat attendu mais bien sur d’autres critères inavouables et c’est bien là que se situe le problème.

Par exemple, une majorité de tâches de management vont produire des algorithmes où l’on pourra voir que les décisions ne sont pas prises principalement en fonction du résultat espéré mais bien plutôt des traits de personnalité de la personne encadrée. On s’apercevra que les principales décisions sont prises en fonction du statut social de l’encadré, de sa santé, de son apparence physique, de son sexe et finalement, mais à la marge seulement, du problème qu’il s’agit de résoudre.

Ceci, tout décideur le sait implicitement mais que cette vérité apparaisse en surface par le biais de l’intelligence artificielle risque de causer une révolution.

La peur inconsciente de l’intelligence artificielle est réellement là : qu’elle mette en évidence que nos prises de décisions reposent principalement sur des critères inavouables socialement et qu’elle va donc trahir une bonne partie de notre hypocrisie sociale.

Partager

11 réflexions au sujet de « La vraie raison pour laquelle l’intelligence artificielle fait peur, par Jean-Baptiste Auxiètre »

  1. La gueule de l’emploi quoi, améliorée. Lombroso-type 2.0
    Aux assises on dit: pourvu que la photo sois bonne…!
    Les pas veinard le seront toujours.

  2. Tant que le pouvoir sera dans les mains de quelques uns, ces moyens « technologiquement révolutionnaires », que ce soit l’IA ou l’énergie nucléaire ou autres, seront toujours utilisés pour dominer les autres. C’est cela qui a fait pleurer Oppenheimer.

    1. La différence entre une partie de poker ou de go et les délires de ce fou furieux, c’est le modèle et les critères d’évaluation.

      Quelle que soit la technique utilisée (réseaux de neurones ou corrélation statistique), une IA a besoin d’un jeu d’exemples modélisés (décrits par une certaine quantité de variables) assortis d’une évaluation (en gros, si une réponse est bonne ou mauvaise).

      Ce qu’on produit, c’est un système qui sait générer une réponse proche des exemples qu’on lui a fournis, c’est à dire une réponse qui, à partir de données restant dans le même cadre que celles qui lui ont servi à apprendre, produit (assez souvent) des réponses qui satisfont les mêmes critères d’évaluation.
      Si on reste dans le domaine des jeux, force est de constater que dans certains cas on arrive à produire des réponses qui battent les meilleurs humains à plate couture.

      Quand on est dans les jeux, la modélisation est relativement simple (quelques cartes, un plateau de jeu, des pions, etc) et l’évaluation ne laisse pas ou très peu de place à la subjectivité (au poker il suffit de voir si on gagne du fric, au go même des joueurs très moyens sont capables de tomber d’accord sur le fait qu’une partie est gagnée ou perdue).

      Par contre, quand on commence à aller sur le terrain du management, la question qui se pose, c’est qui décide de ce qu’est une bonne ou une mauvaise réponse.
      En l’occurrence ce conno a publié sa petite centaine de principes pour transformer la vie de ses employés en enfer, donc on peut supposer que les IA produites par le transfuge d’IBM se baseront sur une abstraction desdites règles pour s’entraîner à produire des réponses en adéquation avec elles.

      Deuxième problème, qu’est-ce qu’on modélise ? La sélection des données est un processus opaque, empirique et piloté à moitié par des contraintes (complexité, volume, disponibilité, fiabilité) et à moitié par des jugements de valeurs implicites (telle donnée est « intéressante », « utile », etc.).

      Le business ça va plutôt être de définir le modèle et les critères, qui sont deux choses arbitraires et subjectives. Une fois que tout ça sera bien planqué dans la machine, on obtiendra un magnifique oracle dont les prophéties auront force de loi.

  3. L’idée est sans doute en partie fondée . En faire une clé unique explicative me semble abusif .

    En déclinaison immédiate , cela voudrait dire que les médecins , les prêtres catholiques et les avocats ont du souci à se faire , et les plus de quinze ans ne seront plus victimes du secret professionnel .

    Est ce que la Confession faite à une IA , telle à dieu le père, attendra et recevra le Pardon de sa part ?

     » Divine IA , pardonnez nous nos offenses comme nous pardonnons à ceux qui nous ont offensés ..; »

    1. Juannessy
      votre réflexion vous amène au « divin »…
      sur l’autre billet « Singularité » par Nicolas Mallia
      ma « réflexion » me conduit au « diable »…
      🙂

  4. Ce que dit ce post sur l’essence irrationnelle des décisions de gestion est certainement vrai, mais j’ai quand même deux remarques.

    D’abord une IA basée sur un réseau de neurones ou même des corrélations statistiques plus simples n’est pas analysable. C’est une boîte noire qui a, dans certains cas, la propriété de reproduire des comportement appris et, c’est là l’aspect « magique », de les extrapoler à des situations non apprises.
    AlphaGo a non seulement été entraîné avec des dizaines de milliers de parties de go, mais il a acquis la capacité de jouer des parties nouvelles aussi bien que celles qui lui ont servi à apprendre le jeu. Ceci dit, personne ne sait expliquer comment cette machine gagne. On peut tout au plus constater que sa façon de jouer se rapproche de celle des meilleurs joueurs dont les parties lui ont servi d’exemple.

    Donc si on entraîne un réseau de neurones à fournir des réponses de type « qui je vire aujourd’hui pour faire plaisir aux actionnaires », je suppose qu’il va finir par cracher une liste de noms basée sur des critères X ou Y, mais on ne saura pas plus expliciter ce choix que ceux faits par des humains qui lui auront servi de modèle d’apprentissage.

    Ensuite, toujours à mon avis, l’attrait principal de l’IA se situe au niveau moral. Nimbée de son aura de parfaite rationalité, L’IA est le moyen idéal d’imposer des décisions sans mettre en jeu la responsabilité des décideurs. « L’ordinateur a dit que », c’est imparable comme justification.

    Une AI entraînée à prendre les décisions jusqu’ici réservées aux petits chefs des armées mexicaines qui engorgent le tertiaire permettrait simplement de donner une apparence de rationalité aux mêmes conneries arbitraires, biaisées, remplies de subjectivité, de préjugés et de jugements de valeur.

    Exemple qui existe depuis 3-4 ans déjà, le choix des remises de peine pour les condamnés d’une quinzaine d’états américains (www.economist.com/news/united-states/21601009-big-data-can-help-states-decide-whom-release-prison-prison-breakthrough)

      1. Autant essayer de faire une analyse factorielle des données d’apprentissage, ça éviterait de perdre son temps à entraîner un réseau de neurones dessus 🙂

        Ce n’est pas avec une analyse factorielle qu’on va « expliquer » comment AlphaGo est devenu champion du monde, ou comment Gougle fait la différence entre les chiens et les chats.

        Les domaines où cette technique est utile, ce sont justement ceux où il n’y a pas de variables latentes évidentes, pas de corrélations faciles à lire.

        Sans quoi on pourrait aisément calculer ces variables et les traiter avec de l’algorithmique classique.

  5. Alors j’espère que cette intelligence artificielle va remplacer nos politiciens (nes) et que enfin de l’intelligence sera au rendez-vous.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *