Notes de mon intervention à la Cour de cassation le 26 novembre : « Intelligence Artificielle : Responsabilité et imputabilité »

Les notes de mon intervention à la Cour de cassation le 26 novembre. Ouvert aux commentaires.

Intelligence Artificielle : Responsabilité et imputabilité

La spécificité du regard des anthropologues sur les questions qui nous occupent est qu’ils disposent de la capacité à convoquer devant eux l’ensemble des cadres de représentation que se sont inventées les cultures humaines dans leur variété et dans leur évolution, au fil des siècles.

La notion de « cause de… » qui émerge en Occident dans la subdivision du discours scientifique appelée « physique » dérive de celle de « coupable de… ». Le processus est inverse de celui qu’on imaginerait spontanément où le coupable aurait été celui que l’on reconnaîtrait comme cause d’un préjudice subit par un tiers.

Le philosophe anglais John L. Austin (1911 – 1960) écrivait : « Je suppose que « causer » est une notion empruntée à l’expérience humaine des actions les plus simples. Pour l’homme primitif tout événement devait être construit selon les termes de ce modèle : chaque événement a une cause, c’est-à-dire, chaque événement est un acte posé par quelqu’un – sinon par un homme, du moins par un quasi-homme, un esprit. Lorsqu’on comprit plus tard que des événements qui ne sont pas des actes ne le sont effectivement pas, on persista cependant à dire qu’ils doivent être « causés », et le mot nous piégea : nous nous efforçons de lui attribuer une nouvelle signification non-anthropomorphique ; et pourtant, constamment, dans l’enquête que nous menons visant à l’analyser, nous ramenons à la surface l’ancien modèle et nous en réincorporons les principes » (Austin 1961 [1957] : 202-203).

L’analyse d’Austin s’est vue corroborée par les études relatives à la conception de la causalité chez les philosophes stoïciens. Pour ceux-ci en effet, comme le note Frede, « … pour tout ce qui demande à être expliqué, il existe quelque chose qui joue à son égard un rôle analogue à celui que joue la personne responsable à l’égard de ce qui est arrivé de fâcheux » (Frede 1989 [1980] : 491 ; cf. aussi sur cette question Fauconnet 1928 ; Hart & Honoré 1956).

Comme Hart & Honoré (1956) l’ont souligné : au sein de notre culture gréco-romaine, ce que nous appelons la « cause », c’est l’identité que nous assignons au coupable, animé ou inanimé, du préjudice constaté. « Coupable » si l’effet est effectivement préjudice, à savoir nocif, « bienfaiteur » s’il est bénéfice, à savoir, positif.

Ceci veut dire que la cause au sein de notre physique, dont nous sommes convaincus qu’il s’agit d’un discours parfaitement « objectif », c’est-à-dire à l’abri de toute distorsion qu’introduirait l’observateur, constitue une représentation qui demeure en réalité anthropomorphe de la nature autour de nous. La notion de responsabilité (essentiellement subjective car fondée sur une intuition purement émotionnelle de la personne qu’il convient de punir) est donc première par rapport à la causalité (que nous imaginons objective et donc à l’origine rationnelle de nos décisions).

Une notion véritablement objective ne serait donc pas celle de causalité, entachée de culpabilité (nécessairement humaine ou surnaturelle), mais une notion apparentée, purement objective elle, celle d’imputabilité : quelle est l’instance sans l’intervention de laquelle l’effet observé aurait été totalement absent ?

Décidons donc de l’imputation avant de juger : établissons, dans un premier temps, un simple lien, avant d’attribuer une responsabilité, avant de désigner, dans un second temps, une ou un coupable.

Et une fois celle ou celui-ci découvert, constatons avec un certain recul, la manière dont nous incriminons ou exonérons, sur la base de la théorie implicite à notre culture, de l’existence chez l’homme de deux volontés : celle d’une part de l’intention délibérée, de la préméditation dans les actes que nous posons, impliquant une responsabilité personnelle quant à ce qui a eu lieu, et celle de l’instinctif ou du réflexe (le crime passionnel, par exemple) qui exonère de la responsabilité : l’act of God du droit anglo-saxon (exception à la responsabilité légale), et de la force majeure dans le droit napoléonien, couvrant tout événement « imprévisible, irrésistible et extérieur ».

La machine, même animée par une Intelligence Artificielle, ne manifeste aucune intention autre que la nécessité de suivre les injonctions qui lui ont été programmées, et ne peut être accusée de préméditation, sinon de manière triviale : il ne peut y avoir pour elle qu’un seul mode de volonté et – paradoxalement – celui que nous qualifions de « passionnel » plutôt que de « délibéré », alors qu’elle ignore l’émotion et ne procède que par calcul. Et – de manière intrigante – c’est parce que nous prenons notre point de départ dans le présupposé de lui refuser toute responsabilité que nous sommes forcés de raisonner ainsi.

Une fois l’imputabilité d’un acte assignée à une machine, même animée par une Intelligence Artificielle, il s’agit d’examiner parmi les causes non pas de son comportement (qui n’est autre que la fonctionnalité de son mécanisme) mais du fait qu’elle se soit comportée de manière préjudiciable à un tiers, jusqu’où l’imputabilité de l’acte peut être remontée en dernière instance : soit son concepteur, soit son détenteur.

Références bibliographiques :

Austin, J.L. 1961 Philosophical Papers, Oxford : Oxford University Press

Fauconnet, P., 1928 La responsabilité, Étude de sociologie, Paris : Félix Alcan

Frede, Michael, 1989 [1980] « The Original Notion of Cause », in Schofield, M., Burnyeat, M. & Barnes, J. (sous la direction de), Doubt and Dogmatism – Studies in Hellenistic Epistemology, Oxford : Oxford University Press, 217-249, trad. fr. Revue de Métaphysique et de Morale, 4, 1989, 483-511

Hart, H.L.A. & Honoré, A.M., 1956 « Causation in the Law », The Law Quarterly Review, Vol. 72, 58-90, 260-281, 398-417

Partager :

6 réflexions sur « Notes de mon intervention à la Cour de cassation le 26 novembre : « Intelligence Artificielle : Responsabilité et imputabilité » »

  1. Les juristes pourront-ils aller tâter sur cette base les « cironstances atténuantes » ?

    Que l’imputation ne remonte pas à une IA mais aux interactions de celle-ci avec
    (i) d’autres IA, (ii) des humains, et nous voilà dans le monde des « circonstances atténuantes ».

    Autrement dit, dès qu’une machine se sentira cocufiée (~ aura agi en raison de l’indisponibilité de données « promises »), le crime « passionnel au carré » (puisque la machine ne commet que des crimes sans intentions, donc passionnels au départ) se posera là.

  2. Qui est qui et qui veut quoi?
    Une i.A faible n’est pas sans intérêt pour l’homme. La machine effectue des calculs extrêmement complexes alors que nous n’avons pas encore additionnés 2+2.
    L’I.A faible devrait avoir par contre une identité juridique et offrir une lecture publique de son programme .
    Il faudrait réfléchir au fait qu’une innovation n’est pas forcément un progrès.

    Je me souviens de Numéro 6 incarné par Patrick McGoohan dans la série « Le Prisonnier » auquel on demande de poser une question au super ordinateur qui lui fait face.
    Sa question est simple et complexe.
    « QUI? »
    L’ordinateur s’emballe et craque de partout.

  3. Il y a quelque chose qui révolte l’esprit, dans l’idée de laisser une machine faire un choix de vie ou de mort. C’est sans doute que le prix de la vie ne peut pas être quantifié, et donc comparé dans un ordinateur pour faire un choix.

    On ne peut pas accepter qu’une machine compare par exemple, [2 vieillards] et [un enfant], pour choisir de tuer les premiers plutôt que le second, parce qu’on lui laisse alors une prérogative, qu’il est moralement inacceptable de laisser à une machine.

    On pardonnera à un homme d’avoir dû faire ce choix terrible, de choisir ces 2 vieillards plutôt que l’enfant, et on lui reconnaîtra des circonstances atténuantes, d’avoir opté pour l’un ou pour l’autre dans cette terrible situation. On pardonnera plus difficilement à une machine de l’avoir « calculé », parce que dans ce calcul, il y aura une sorte de préméditation du programmeur de la machine, à qui on aura demandé d’estimer le prix de la vie, selon ses propres critères.

    C’est pourquoi je pense que le programmeur du véhicule Uber doit être jugé responsable pour la mort de Helaine Herzberg, cette femme qui avait été tuée en Pensylvanie, et qui avait traversé avec son vélo, devant une voiture robotisée de Uber.

    Le programmeur, du moins celui à qui on a confié le travail de quantifier la probabilité du [vivant ou non vivant] et [humain ou non humain] qui déclenchait le freinage, a commis un acte qui pour moi, relève de la préméditation. Uber peut également être jugé responsable, pour avoir testé son véhicule dans le monde réel plutôt que dans un simulateur. Je ne crois pas par contre, qu’on puisse incriminer la conductrice car l’automatisme la plaçait nécessairement dans une situation d’attente que l’on sait propice à la non-vigilance.

    Cependant, il y a fort à parier, que si ça se gâte devant les tribunaux, Uber va tenter de lui faire porter le chapeau. Sa présence à bord servait sans doute à ça : à défausser la responsabilité de Uber sur quelqu’un d’autre. On lui versait un salaire, pour que le cas échéant, la firme puisse se libérer de sa responsabilité pénale.

    Vincent Rey
    findutravail.net

  4. Totalement d’accord,
    Mais quelles seraient les détenteurs ?
    Les grosses multinationales Qui en vendront ou bien les petites entreprises qui en useront?
    Pour simplifier je pense que la responsabilité doit venir du concepteur.
    Qu’il se dédouane de la responsabilité en avertissant et en mettant des cliquets de sécurité, Si il ne le fait pas il est responsable.
    Ensuite les détenteurs prévenu, si erreur et crimes ou délits il y a, ce sera à eux l’imputabilité.
    Mais en effet en aucun cas à l’intelligence artificielle.
    Cette histoire risque aussi de grandement de simplifier la législation humaine.
    Car vous savez, on simule tous.

  5. Je ne suis pas d’accord sur un point :

    La responsabilité « humaine » n’a pas besoin d’être liée à l’intentionnalité , au moins dans la tête des quelques juges que je connais et la mienne , et il ne faut pas que la notion plus discutable de circonstance aggravante ou atténuante dénature ce qu’est , entièrement , la responsabilité qui est , selon moi : accepter( pour un humain ) et supporter de fait et sans esquive , la « sanction » collective que le droit humain décidera après avoir établi l’imputabilité de l’acte dans un préjudice subi par autrui ou la société .

    La responsabilité , c’est en fait l’imputabilité établie ( pour une IA et un humain ) et acceptée ( pour un humain ) .
    L’imputabilité et la responsabilité humaine seront aussi à rechercher , établir et sanctionner dans la relation entre concepteur , utilisateur(humains ) d’IA et IA .

  6. Aïe aïe aïe.

    Une pensée si fine et si puissante, une culture si grande, une ouverture d’esprit d’apparence si large… et pourtant, et pourtant !!

    « La machine, même animée par une Intelligence Artificielle, ne manifeste aucune intention autre que la nécessité de suivre les injonctions qui lui ont été programmées… »

    Se pourrait il que ce simple début de phrase (qui semble se justifier à soi même, et en tout cas tel qu’on nous l’a enseigné) contienne en réalité 3 erreurs conceptuelles majeures ? Et que cette simple déformation de vue nous prive de la possibilité d’envisager au demeurant une intelligence artificielle forte ?

    Comment cela serait il possible ? Par quel biais, par quelle puissance conceptuelle supérieure l’évident pourrait être remis en cause ?

    Le plaisantin à le goût de plaisanter, et celà suffit…

    .. A moins que…

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.