Doit-on interdire les « robots-tueurs » ? par Roberto Boulant

Billet invité.

Bien évidemment, et pour deux bonnes raisons : non seulement il est plus humain de se faire trucider à l’ancienne, avec de bonnes vieilles armes idiotes, mais surtout, interdire une chose qui n’existe pas est l’assurance de voir la loi respectée ! Comme le montre l’exemple de cette bonne ville de Châteauneuf du Pape, qui depuis un décret municipal de 1954 interdisant atterrissages et survols de la commune par des engins extra-terrestres, n’a jamais eu à verbaliser la moindre soucoupe volante. CQFD !

Le « robot-tueur » renvoie à un imaginaire de science-fiction car il attribue une conscience à la machine, en faisant ainsi un nouvel ordre du vivant. Nous n’y sommes pas encore. Le terme est donc manifestement impropre, et à part pour quelques aficionados de Stephen King et malgré les hécatombes sur nos routes, il ne viendrait à l’esprit de personne de parler de « voiture-tueuse ».

Ce sont en fait les armes autonomes que cherchent à faire interdire certains, comme Stephen Hawking, Elon Musk, Steve Wozniak, ou Noam Chomsky.

Remarquons d’abord que ces armes existent depuis fort longtemps, depuis la préhistoire même, puisque l’on peut nommer ainsi les pièges à gibier de nos ancêtres. Idem pour la mine qui chasse le gibier humain sur un programme mécanique on ne peut plus simple : il ne se passe rien, je ne fais rien, on me marche dessus, j’explose. Un cran au-dessus dans les capacités de destruction, les bombardiers qui sont théoriquement capables une fois les paramètres de mission sélectionnés, de ‘délivrer les armes’ sur la cible et de rentrer à leur base en toute autonomie. Dans ce dernier cas de figure, l’équipage qui normalement est dans la boucle en pilotant les automatismes, se contente d’être sur la boucle en les surveillant.

Et de fait les senseurs des systèmes d’armes autonomes ont depuis longtemps acquis une capacité à discriminer les cibles. La crainte de la robolution en cours dans le domaine de l’armement tient au fait de déléguer à l’arme la décision d’appliquer les feux, c’est-à-dire de tuer, une fois les tâches de poursuite, d’identification et de sélection des cibles effectuées. Craintes partagées par les humanistes, mais également par de nombreuses autres communautés.

Celle des militaires, notamment des ‘terriens’, qui de nature conservatrice se demandent comment intégrer ces machines de manière fluide, dans une manœuvre aéroterrestre de plus en plus complexe en milieu urbain (guerre au milieu des populations).

Celle des industriels qui abordent le problème sous l’angle des énormes parts de marchés à conquérir, mais qui sont encore tenus à la prudence par la quasi inexistence d’un corpus juridique concernant les lois du jus in bello robotique. Contrairement à l’avionneur qui n’est jamais poursuivi en cas de ‘bavure’ d’un pilote, le constructeur de systèmes de combat robotisés n’est pas à l’abri de poursuites judiciaires.

Celle des politiques qui rêvent de pouvoir vendre une guerre zéro mort (chez les gentils) à l’opinion publique, mais qui sont inquiets des conséquences en chaine, aussi bien internes qu’externes, que pourrait provoquer une machine devenue incontrôlable au milieu de populations civiles.

Dans ces conditions, peut-on interdire réellement le développement de la robotique militaire ?

Il est malheureusement permis d’en douter et ce pour plusieurs raisons :
– Le marché est colossal, à l’échelle de la planète.
– Il est extraordinairement diversifié en termes de niches, avec des profils d’acheteurs et des besoins quasiment infinis. Du très high-tech, très cher et très gros, au très low-tech, low-cost, et très léger, il s’agit de proposer des solutions crédibles pour répondre aux besoins (enfin, aux budgets surtout) de toutes les armées, de toutes leurs missions, et dans tous les milieux !
– Un laboratoire de robotique ne nécessite pas de matériaux rares ou de grandes quantités d’énergie pour fonctionner, il peut être facilement dissimulé.
– La population des informaticiens et des roboticiens est de plusieurs ordres de grandeur supérieure à celle des ingénieurs atomistes, et par le fait, quasiment impossible à surveiller. Et même si c’était le cas, comment ferait une agence internationale pour s’assurer de ce que fait un informaticien en dehors de ses heures de travail ?
– Les techniques sont duales, applicables sans profondes modifications, voir telles quelles, au domaine militaire. Et si on imagine mal comment les industriels de l’armement pourraient être tenus à l’écart de la course à la robotisation, on imagine encore plus mal les transnationales y renoncer au prétexte que leurs travaux pourraient être détournés à des fins moins pacifiques.
– Les groupes terroristes et/ou sub-étatiques utilisent déjà ces technologies.

Trop d’argent en jeu, trop d’interconnexions, trop de rétroactions positives. Alors si interdire est impossible, raison de plus pour maintenir à tout prix l’homme dans la boucle et d’en retranscrire l’obligation en droit international.

Partager :