Les «systèmes d'armes létales autonomes Les robots en ligne de mire
International
Les «systèmes d'armes létales autonomes» autrement dit les robots tueurs, n'existent pas encore. Mais leur réalité est suffisamment proche pour provoquer une vive inquiétude.
Mehr Artikel
24. November 2013
0
0
5 min.
Imprimer
Correction
Jusqu'ici, l'opposition aux armes autonomes s'est manifestée principalement par la voix d'organisations non gouvernementales et de milieux scientifiques. Lancée en avril 2013, la «Campagne pour stopper les robots tueurs» progresse «à la vitesse de la lumière» selon Steve Goose, directeur de la division des armes à Human Rights Watch et co-fondateur de la campagne. Cette coalition rassemble 44 organisations de 21 pays. L'ONU commence à s'y intéresser. En mai dernier, le rapporteur du Conseil des droits de l'homme sur les exécutions extrajudiciaires, sommaires et arbitraires, Christof Heyns, consacrait son rapport à ce type d'armes. Depuis, une quarantaine d'Etats se sont prononcés publiquement pour la première fois sur le sujet.
«Le débat ne porte pas sur l'usage des robots dans les armées», tient à préciser Noel Sharkey, lui même professeur en intelligence artificielle et robotique à l'Université de Sheffield, en Angleterre. Il a gardé de son Belfast natal un solide accent irlandais. «Nous sommes contre leur usage comme arme sans intervention humaine significative». Catogan et barbe blanche, ce sexagénaire volubile rencontrait la presse à Genève la semaine dernière en compagnie de Steve Goose. Noel Sharkey avoue avoir été «horrifié» lorsque, au cours d'une recherche en 2005-2006, il a réalisé que les robots autonomes à usage militaire faisaient partie des projets avancés de l'armée américaine (qui a instauré un moratoire relatif fin 2012). Il est l'une des chevilles ouvrières de la Campagne contre les robots tueurs.
Les «plateformes» autonomes civiles sont connues de tous sous la forme d'aspirateurs ou de tondeuses à gazon. De nombreux pays développent par ailleurs des robots militaires, comme les Etats-Unis, Israël, la Corée du Sud. La Russie et la Chine sont sur la voie, selon Noel Sharkey. Ces robots n'ont rien à voir avec les drones actuels, qui sont dirigés, même à des milliers de kilomètres de distance. La génération suivante, actuellement en test, comme le Northrop Grumman X-47B est prévue pour être autonome. L'Agence de recherche de l'armée américaine (DARPA) dispose déjà d'un véhicule tout terrain nommé Crusher depuis des années et le Pentagone vient de présenter son robot humanoïde Petman. Les Israéliens de leur côté vantent sur internet les qualités de leur véhicule Gardium UGB, bourré de capteurs, qui sert à «sécuriser» un terrain avant le déploiement de la troupe. Ces engins vont beaucoup plus loin que les machines détruisant d'autres machines, comme les missiles anti-missiles.
«La question n'est pas de savoir quels pays développent des robots autonomes, mais s'il est acceptable qu'ils soient équipés pour tuer», affirment Goose et Sharkey. Les armées, disent-ils, assurent qu'il y aura toujours une intervention humaine (autonomie supervisée). Mais encore faut-il que le délai d'évaluation soit suffisant. S'il est de 10 secondes ou moins, selon Noel Sharkey, on ne peut pas parler d'action humaine «significative». «Nous connaissons ce qu'on appelle le «biais d'automation», selon lequel notre cerveau tend à faire confiance à la machine. L'intervention humaine doit porter non seulement sur la décision de tirer, mais sur la définition de la cible». La capacité des robots à se mouvoir de manière autonome n'est plus un problème, les équiper d'armes encore moins. «Mais un robot ne peut pas faire la différence entre un arbre et une personne, encore moins entre un civil et un militaire».
L'exigence de moratoire sur le développement des robots tueurs, qui devrait déboucher sur leur interdiction, se base sur plusieurs considérations, que l'on retrouve dans le rapport de Christof Heyns au Conseil des droits de l'homme. Mis à part l'aspect éthique et moral (une machine peut-elle avoir droit de vie et de mort sur un humain ?), l'usage de ces armes pose plusieurs problèmes : elles ne peuvent répondre au droit international humanitaire ni aux droits de l'homme ; les notions de proportionnalité dans l'usage d'une arme, liée à celle d'avantage militaire, qui demandent réflexion et expérience, sont gommés.
Une machine ne désobéit pas et ne se mutine pas, mais elle n'a pas non plus d'empathie, de compassion ou de jugement. Se pose alors la question de la responsabilité en cas d'action illégale. Qui répondra en dernier ressort du comportement des robots ? Le constructeur, le programmeur, un commandant ? Certains officiers s'opposent d'ailleurs aux robots tueurs pour cette raison : ils ne veulent pas être tenus responsables des dérapages d'une machine qu'ils ne contrôleraient pas.
Dans son rapport au Conseil des droits de l'homme, Christof Heynes estime qu'il est urgent que les Etats prennent position, afin d'influencer l'attribution des ressources financières et humaines en la matière. Ce ne serait pas la première fois qu'une arme serait prohibée avant d'exister. Le quatrième protocole de la Convention sur les armes conventionnelles (CCW), entré en force en 1998 et signé par 102 Etats, interdit l'usage des lasers aveuglants.
Le fait que la CCW ait accepté de s'emparer du sujet vendredi dernier (sur proposition de la France) est une bonne nouvelle pour la Campagne contre les robots tueurs. «Nous espérons que cela débouche sur un sixième protocole à la CCW», commente Steve Goose, de Human Rights Watch. Un groupe d'experts se réunira en mai prochain et fera rapport à la prochaine réunion annuelle de la CCW, dans une année. En cas d'impasse, restera l'option de mener campagne pour une convention séparée, similaire à celle qui a débouché sur l'interdiction des mines anti personnelles (Convention d'Ottawa), en moins de dix ans.