Email a copy of 'Notes de mon intervention à la Cour de cassation le 26 novembre : "Intelligence Artificielle : Responsabilité et imputabilité"' to a friend

* Required Field






Separate multiple entries with a comma. Maximum 5 entries.



Separate multiple entries with a comma. Maximum 5 entries.


E-Mail Image Verification

Loading ... Loading ...
Notes de mon intervention à la Cour de cassation le 26 novembre : « Intelligence Artificielle : Responsabilité et imputabilité » – Blog de Paul Jorion

E-Mail ‘Notes de mon intervention à la Cour de cassation le 26 novembre : « Intelligence Artificielle : Responsabilité et imputabilité »‘ To A Friend


Partager :

6 réponses à “Notes de mon intervention à la Cour de cassation le 26 novembre : « Intelligence Artificielle : Responsabilité et imputabilité »”

  1. Avatar de timiota
    timiota

    Les juristes pourront-ils aller tâter sur cette base les « cironstances atténuantes » ?

    Que l’imputation ne remonte pas à une IA mais aux interactions de celle-ci avec
    (i) d’autres IA, (ii) des humains, et nous voilà dans le monde des « circonstances atténuantes ».

    Autrement dit, dès qu’une machine se sentira cocufiée (~ aura agi en raison de l’indisponibilité de données « promises »), le crime « passionnel au carré » (puisque la machine ne commet que des crimes sans intentions, donc passionnels au départ) se posera là.

  2. Avatar de Michel Authelet
    Michel Authelet

    Qui est qui et qui veut quoi?
    Une i.A faible n’est pas sans intérêt pour l’homme. La machine effectue des calculs extrêmement complexes alors que nous n’avons pas encore additionnés 2+2.
    L’I.A faible devrait avoir par contre une identité juridique et offrir une lecture publique de son programme .
    Il faudrait réfléchir au fait qu’une innovation n’est pas forcément un progrès.

    Je me souviens de Numéro 6 incarné par Patrick McGoohan dans la série « Le Prisonnier » auquel on demande de poser une question au super ordinateur qui lui fait face.
    Sa question est simple et complexe.
    « QUI? »
    L’ordinateur s’emballe et craque de partout.

  3. Avatar de Vincent Rey
    Vincent Rey

    Il y a quelque chose qui révolte l’esprit, dans l’idée de laisser une machine faire un choix de vie ou de mort. C’est sans doute que le prix de la vie ne peut pas être quantifié, et donc comparé dans un ordinateur pour faire un choix.

    On ne peut pas accepter qu’une machine compare par exemple, [2 vieillards] et [un enfant], pour choisir de tuer les premiers plutôt que le second, parce qu’on lui laisse alors une prérogative, qu’il est moralement inacceptable de laisser à une machine.

    On pardonnera à un homme d’avoir dû faire ce choix terrible, de choisir ces 2 vieillards plutôt que l’enfant, et on lui reconnaîtra des circonstances atténuantes, d’avoir opté pour l’un ou pour l’autre dans cette terrible situation. On pardonnera plus difficilement à une machine de l’avoir « calculé », parce que dans ce calcul, il y aura une sorte de préméditation du programmeur de la machine, à qui on aura demandé d’estimer le prix de la vie, selon ses propres critères.

    C’est pourquoi je pense que le programmeur du véhicule Uber doit être jugé responsable pour la mort de Helaine Herzberg, cette femme qui avait été tuée en Pensylvanie, et qui avait traversé avec son vélo, devant une voiture robotisée de Uber.

    Le programmeur, du moins celui à qui on a confié le travail de quantifier la probabilité du [vivant ou non vivant] et [humain ou non humain] qui déclenchait le freinage, a commis un acte qui pour moi, relève de la préméditation. Uber peut également être jugé responsable, pour avoir testé son véhicule dans le monde réel plutôt que dans un simulateur. Je ne crois pas par contre, qu’on puisse incriminer la conductrice car l’automatisme la plaçait nécessairement dans une situation d’attente que l’on sait propice à la non-vigilance.

    Cependant, il y a fort à parier, que si ça se gâte devant les tribunaux, Uber va tenter de lui faire porter le chapeau. Sa présence à bord servait sans doute à ça : à défausser la responsabilité de Uber sur quelqu’un d’autre. On lui versait un salaire, pour que le cas échéant, la firme puisse se libérer de sa responsabilité pénale.

    Vincent Rey
    findutravail.net

  4. Avatar de Lucas
    Lucas

    Totalement d’accord,
    Mais quelles seraient les détenteurs ?
    Les grosses multinationales Qui en vendront ou bien les petites entreprises qui en useront?
    Pour simplifier je pense que la responsabilité doit venir du concepteur.
    Qu’il se dédouane de la responsabilité en avertissant et en mettant des cliquets de sécurité, Si il ne le fait pas il est responsable.
    Ensuite les détenteurs prévenu, si erreur et crimes ou délits il y a, ce sera à eux l’imputabilité.
    Mais en effet en aucun cas à l’intelligence artificielle.
    Cette histoire risque aussi de grandement de simplifier la législation humaine.
    Car vous savez, on simule tous.

  5. Avatar de Juannessy
    Juannessy

    Je ne suis pas d’accord sur un point :

    La responsabilité « humaine » n’a pas besoin d’être liée à l’intentionnalité , au moins dans la tête des quelques juges que je connais et la mienne , et il ne faut pas que la notion plus discutable de circonstance aggravante ou atténuante dénature ce qu’est , entièrement , la responsabilité qui est , selon moi : accepter( pour un humain ) et supporter de fait et sans esquive , la « sanction » collective que le droit humain décidera après avoir établi l’imputabilité de l’acte dans un préjudice subi par autrui ou la société .

    La responsabilité , c’est en fait l’imputabilité établie ( pour une IA et un humain ) et acceptée ( pour un humain ) .
    L’imputabilité et la responsabilité humaine seront aussi à rechercher , établir et sanctionner dans la relation entre concepteur , utilisateur(humains ) d’IA et IA .

  6. Avatar de Kivoila
    Kivoila

    Aïe aïe aïe.

    Une pensée si fine et si puissante, une culture si grande, une ouverture d’esprit d’apparence si large… et pourtant, et pourtant !!

    « La machine, même animée par une Intelligence Artificielle, ne manifeste aucune intention autre que la nécessité de suivre les injonctions qui lui ont été programmées… »

    Se pourrait il que ce simple début de phrase (qui semble se justifier à soi même, et en tout cas tel qu’on nous l’a enseigné) contienne en réalité 3 erreurs conceptuelles majeures ? Et que cette simple déformation de vue nous prive de la possibilité d’envisager au demeurant une intelligence artificielle forte ?

    Comment cela serait il possible ? Par quel biais, par quelle puissance conceptuelle supérieure l’évident pourrait être remis en cause ?

    Le plaisantin à le goût de plaisanter, et celà suffit…

    .. A moins que…

Contact

Contactez Paul Jorion

Les livres de Paul Jorion

Commentaires récents

  1. Mais, bonne nouvelle dans ce monde de brutes : Fitch et Moody’s laissent la note de la France inchangée… 🤑 https://www.tdg.ch/dette-fitch-et-moodys-laissent-inchangees-la-note-souveraine-de-la-france-766745382534

Articles récents

Catégories

Archives

Tags

Allemagne Aristote bancor BCE Bourse Brexit capitalisme centrale nucléaire de Fukushima ChatGPT Chine Confinement Coronavirus Covid-19 dette dette publique Donald Trump Emmanuel Macron Espagne Etats-Unis Europe extinction du genre humain FMI France Grèce intelligence artificielle interdiction des paris sur les fluctuations de prix Italie Japon John Maynard Keynes Karl Marx pandémie Portugal psychanalyse robotisation Royaume-Uni Russie réchauffement climatique Réfugiés spéculation Thomas Piketty Ukraine ultralibéralisme Vladimir Poutine zone euro « Le dernier qui s'en va éteint la lumière »

Meta