Envoyez par mail 'Notes de mon intervention à la Cour de cassation le 26 novembre : "Intelligence Artificielle : Responsabilité et imputabilité"' à un ami

Envoyez une copie de 'Notes de mon intervention à la Cour de cassation le 26 novembre : "Intelligence Artificielle : Responsabilité et imputabilité"' à un ami

* Required Field






Separate multiple entries with a comma. Maximum 5 entries.



Separate multiple entries with a comma. Maximum 5 entries.


E-Mail Image Verification

Loading ... Loading ...
22Shares

6 réflexions sur « Notes de mon intervention à la Cour de cassation le 26 novembre : « Intelligence Artificielle : Responsabilité et imputabilité » »

  1. Les juristes pourront-ils aller tâter sur cette base les « cironstances atténuantes » ?

    Que l’imputation ne remonte pas à une IA mais aux interactions de celle-ci avec
    (i) d’autres IA, (ii) des humains, et nous voilà dans le monde des « circonstances atténuantes ».

    Autrement dit, dès qu’une machine se sentira cocufiée (~ aura agi en raison de l’indisponibilité de données « promises »), le crime « passionnel au carré » (puisque la machine ne commet que des crimes sans intentions, donc passionnels au départ) se posera là.

  2. Qui est qui et qui veut quoi?
    Une i.A faible n’est pas sans intérêt pour l’homme. La machine effectue des calculs extrêmement complexes alors que nous n’avons pas encore additionnés 2+2.
    L’I.A faible devrait avoir par contre une identité juridique et offrir une lecture publique de son programme .
    Il faudrait réfléchir au fait qu’une innovation n’est pas forcément un progrès.

    Je me souviens de Numéro 6 incarné par Patrick McGoohan dans la série « Le Prisonnier » auquel on demande de poser une question au super ordinateur qui lui fait face.
    Sa question est simple et complexe.
    « QUI? »
    L’ordinateur s’emballe et craque de partout.

  3. Il y a quelque chose qui révolte l’esprit, dans l’idée de laisser une machine faire un choix de vie ou de mort. C’est sans doute que le prix de la vie ne peut pas être quantifié, et donc comparé dans un ordinateur pour faire un choix.

    On ne peut pas accepter qu’une machine compare par exemple, [2 vieillards] et [un enfant], pour choisir de tuer les premiers plutôt que le second, parce qu’on lui laisse alors une prérogative, qu’il est moralement inacceptable de laisser à une machine.

    On pardonnera à un homme d’avoir dû faire ce choix terrible, de choisir ces 2 vieillards plutôt que l’enfant, et on lui reconnaîtra des circonstances atténuantes, d’avoir opté pour l’un ou pour l’autre dans cette terrible situation. On pardonnera plus difficilement à une machine de l’avoir « calculé », parce que dans ce calcul, il y aura une sorte de préméditation du programmeur de la machine, à qui on aura demandé d’estimer le prix de la vie, selon ses propres critères.

    C’est pourquoi je pense que le programmeur du véhicule Uber doit être jugé responsable pour la mort de Helaine Herzberg, cette femme qui avait été tuée en Pensylvanie, et qui avait traversé avec son vélo, devant une voiture robotisée de Uber.

    Le programmeur, du moins celui à qui on a confié le travail de quantifier la probabilité du [vivant ou non vivant] et [humain ou non humain] qui déclenchait le freinage, a commis un acte qui pour moi, relève de la préméditation. Uber peut également être jugé responsable, pour avoir testé son véhicule dans le monde réel plutôt que dans un simulateur. Je ne crois pas par contre, qu’on puisse incriminer la conductrice car l’automatisme la plaçait nécessairement dans une situation d’attente que l’on sait propice à la non-vigilance.

    Cependant, il y a fort à parier, que si ça se gâte devant les tribunaux, Uber va tenter de lui faire porter le chapeau. Sa présence à bord servait sans doute à ça : à défausser la responsabilité de Uber sur quelqu’un d’autre. On lui versait un salaire, pour que le cas échéant, la firme puisse se libérer de sa responsabilité pénale.

    Vincent Rey
    findutravail.net

  4. Totalement d’accord,
    Mais quelles seraient les détenteurs ?
    Les grosses multinationales Qui en vendront ou bien les petites entreprises qui en useront?
    Pour simplifier je pense que la responsabilité doit venir du concepteur.
    Qu’il se dédouane de la responsabilité en avertissant et en mettant des cliquets de sécurité, Si il ne le fait pas il est responsable.
    Ensuite les détenteurs prévenu, si erreur et crimes ou délits il y a, ce sera à eux l’imputabilité.
    Mais en effet en aucun cas à l’intelligence artificielle.
    Cette histoire risque aussi de grandement de simplifier la législation humaine.
    Car vous savez, on simule tous.

  5. Je ne suis pas d’accord sur un point :

    La responsabilité « humaine » n’a pas besoin d’être liée à l’intentionnalité , au moins dans la tête des quelques juges que je connais et la mienne , et il ne faut pas que la notion plus discutable de circonstance aggravante ou atténuante dénature ce qu’est , entièrement , la responsabilité qui est , selon moi : accepter( pour un humain ) et supporter de fait et sans esquive , la « sanction » collective que le droit humain décidera après avoir établi l’imputabilité de l’acte dans un préjudice subi par autrui ou la société .

    La responsabilité , c’est en fait l’imputabilité établie ( pour une IA et un humain ) et acceptée ( pour un humain ) .
    L’imputabilité et la responsabilité humaine seront aussi à rechercher , établir et sanctionner dans la relation entre concepteur , utilisateur(humains ) d’IA et IA .

  6. Aïe aïe aïe.

    Une pensée si fine et si puissante, une culture si grande, une ouverture d’esprit d’apparence si large… et pourtant, et pourtant !!

    « La machine, même animée par une Intelligence Artificielle, ne manifeste aucune intention autre que la nécessité de suivre les injonctions qui lui ont été programmées… »

    Se pourrait il que ce simple début de phrase (qui semble se justifier à soi même, et en tout cas tel qu’on nous l’a enseigné) contienne en réalité 3 erreurs conceptuelles majeures ? Et que cette simple déformation de vue nous prive de la possibilité d’envisager au demeurant une intelligence artificielle forte ?

    Comment cela serait il possible ? Par quel biais, par quelle puissance conceptuelle supérieure l’évident pourrait être remis en cause ?

    Le plaisantin à le goût de plaisanter, et celà suffit…

    .. A moins que…

Les commentaires sont fermés.

*Le seul Blog optimiste du monde occidental*