Hello tous,

Peut-être avez-vous déjà vu quelque part, ou lu, cette abréviation : RLA. Derrière ces trois lettres se cache une inquiétante réalité, dont on commence à peine à mesurer les perspectives. Les RLA, ce sont les robots létaux autonomes, des machines que l'on croyait durablement cantonnées aux salles obscures et aux films de science-fiction désabusés, et dont on sait désormais qu'elles sont l'avenir des conflits militaires. L'avenir, et même déjà le présent dans la mesure où les drônes n'ont fait que préfigurer l'avènement de cette technologie : les "robots tueurs" seraient d'ores et déjà fin prêts pour s'installer au beau milieu des théâtres de conflit.

Bien évidemment, l'on n'en est pas encore au stade du fameux T-800 qui a immortalisé cette figure de la machine de guerre autonome dans la sphère du septième art. A l'heure actuelle, la technologie en est arrivée au niveau de l'assistance au choix, lequel est toujours réservé à l'homme. Ce sont ainsi les machines, de plus en plus, qui sont chargées d'analyser les différents paramètres, d'un tir par exemple, et de proposer la solution la plus optimisée à l'opérateur qui donne son aval. Mais à l'échelle de quelques années apparaîtront des machines de plus en plus sophistiquées, prévient notamment Frank Rieger, directeur technique d'une entreprise de sécurité informatique et, depuis 1990, l'un des porte-paroles du Chaos Computer Club, l'une des organisations de hackers les plus influentes d'Europe. On peut aller encore plus loin : les machines intelligentes, capables en totale liberté de décider de la vie ou de la mort d'hommes, pourraient surgir sur les champs de bataille d'ici 20 à 30 ans, estime l'ONG Human Rights Watch dans un rapport intitulé "Loosing Humanity" particulièrement éloquent sur le sujet (à lire en anglais en cliquant ici). Cela pourrait même aller plus vite, si l'on se fie au reportage ci-dessous, qui évoque l'échéance... 2015 pour l'armée américaine.

L'enjeu, évidemment, est faramineux, car il va d'un intérêt stratégique de premier ordre. Celui qui maîtrisera en premier cette technologie prendra en effet un avantage décisif en cas de conflit. Raison pour laquelle, continue Frank Rieger dans son texte passionnant (à lire ici en français), la question tarauderait nombre d'Etats, inquiets à l'idée que certains gouvernements moins regardants qu'eux sur les droits de l'homme et capables de progresser rapidement sur un plan technologique puissent prendre la tête de cette nouvelle course à l'armement. Car la compétition a bel et bien commencé, et elle fait rage, écrit encore Frank Rieger :

"Nous sommes au début d'une course aux armements dans le domaine des algorithmes pour l'autonomie létale. Le plus rapide et le moins scrupuleux à utiliser de tels systèmes malgré tous les défauts peut selon la logique de cette course aux armements obtenir des avantages stratégiques et financiers considérables. La nouvelle course aux armements marque un tournant aussi pour les chercheurs qui dans le domaine universitaire travaillent sur les robots et l'intelligence artificielle. Pratiquement chaque domaine de recherche est lié à la construction de nouvelles armes intelligentes".

Difficile pour moi de ne pas penser à des règles que je croyais inviolables. Il est en effet inquiétant de noter que les trois lois fondamentales de la robotique (en réalité quatre), posées par Isaac Asimov dès 1942, ont depuis longtemps été évacuées de la réflexion militaire. Les voici ci-dessous, pour rappel :

  • Loi Zéro : Un robot ne peut pas faire de mal à l'humanité, ni, par son inaction, permettre que l'humanité soit blessée.
  • Première Loi : Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu'un être humain soit exposé au danger, sauf contradiction avec la Loi Zéro.
  • Deuxième Loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi ou la Loi Zéro.
  • Troisième Loi : Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième Loi ou la Loi Zéro.

 

Militantisme pour un moratoire

Autant se faire une raison : sans que l'on s'en soit rendu compte, ces principes ont été jetés au rebus. La question, pourtant fondamentale, du droit d'une machine à tuer, aux implications pourtant vertigineuses, n'a plus droit de cité. Aujourd'hui, la question se pose simplement de savoir comment encadrer cette future capacité de destruction. Les problématiques posées sont celles de la préservation des civils, des limites posées par le droit de la guerre, de la capacité de l'unité robotique à distinguer un danger immédiat d'une cible non agressive. C'est un constat de réalisme d'ailleurs dressé dans le rapport de Christophe Heyns, un expert de l'ONU pour ces questions, dans un rapport rendu public le 9 avril dernier (et que l'on peut lire ici).

 

Christof Heyns. Photo ONU/Jean-Marc Ferré

Christof Heyns, qui pose heureusement avec force la question du droit moral d'une machine à administrer la mort, a bien pris conscience de la révolution sociétale qui est en train de se jouer à l'abri des regards. Car demain, l'arme deviendra le combattant. Alors, son rapport tente de mettre en place des garde-fou, et l'homme de proposer récemment devant le conseil des droits de l'homme un moratoire sur les armes létales automatisées qui resterait en vigueur jusqu'à ce que soient résolues des interrogations philosophiques et légales majeures :

- celle, fondamentale, de l'inhumanité de la machine, certes capable de rester rationnelle en toutes circonstances, mais nécessairement dépourvue d'émotions et donc incapable de faire preuve de pitié. En corollaire, celle de la capacité de la machine à distinguer un combattant d'une personne non engagée.

- celle des responsabilités en cas de mort d'un innocent : à qui faudrait-il faire porter le poids de la culpabilité ? Le constructeur, le programmeur, le militaire ?

- celle de la nature même d'une "guerre" opposant deux parties dont l'une ne souffre pas de pertes humaines. Peut-on alors encore parler de guerre ? Ou faut-il commencer à parler de "chasse" ?

- celle, enfin, de la distanciation physique et psychologique induite par ce type de technologie entre l'utilisateur d'un robot autonome et sa victime.

Christophe Heyns pointe du doigt un dernier aspect non négligeable, à savoir que la généralisation des robots létaux autonomes pourrait avoir pour conséquence l'augmentation des conflits armés, sans pertes humaines. Il y aurait à craindre une nouvelle course à l'armement telle que l'humanité l'a connue dans la deuxième moitié du XXe siècle. Un ensemble de raisons qui ont d'ailleurs poussé Human Rights Watch à fédérer toute une série d'ONG dans le cadre d'une campagne internationale pour l'interdiction préventive des robots capables de cibler et d'ouvrir le feu sans l'intervention d'un opérateur humain (cf: Le Monde).

 

Tueur, ou ange gardien ?

 

Autant dire que c'est un débat majeur qui attend notre société mondialisée, et il nous appartient de nous emparer alors qu'il est déjà, sur le point de nous échapper tant la technologie saute à pas de géant de progrès en progrès. Et à l'heure où cette technologie remplace peu à peu l'homme dans ses activités civiles et professionnelles, il est vrai qu'il peut être tentant de remplacer également le soldat par une machine afin de limiter ces pertes humaines toujours si mal vécues par nos sociétés avancées. Mais que l'on soit sûr d'une chose : cela n'ira pas sans conséquences. En poussant la réflexion dans ses retranchements, il se trouve déjà des experts pour pointer du doigt la faiblesse de cette option de civilisation : un simple algorithme qui donne à la machine le droit de vie ou de mort sur l'homme, c'est bien peu de choses pour nous protéger de nos propres créations. De manière plus réaliste, l'on est en droit de se demander si notre propension à la paix n'est pas justement liée à notre crainte de trouver la mort dans le conflit. En ce sens, le robot n'aurait-il pas davantage sa place à soutenir, soigner, secourir un soldat blessé plutôt qu'à prendre les armes, nous incitant à réveiller ce moi belliqueux que deux guerres mondiales ont à peine suffi à étouffer ?

 

 

Sources :

http://www.lemonde.fr/idees/article/2013/06/24/la-campagne-pour-l-interdiction-des-robots-tueurs-se-trompe-t-elle-de-cible_3435578_3232.html

http://www.lemonde.fr/international/article/2013/06/18/le-spectre-des-robots-tueurs_3432237_3210.html

http://www.letemps.ch/Page/Uuid/e8e15796-c962-11e2-b77f-99191a1f2183/Un_moratoire_pour_les_robots_tueurs#.UcoV6DvJSqE

http://www.20min.ch/ro/news/geneve/story/Les-robots-tueurs-dans-le-viseur-des-humanitaires-29947555

http://www.un.org/apps/newsFr/storyF.asp?NewsID=30428&Cr=drones&Cr1=#.UcoYgTvJSqF

http://www.rue89.com/2012/11/23/un-terminator-operationnel-dici-vingt-ans-les-ong-salarment-237239

http://www.alternatives-internationales.fr/l-ethique-du-drone_fr_art_1219_64242.html

http://www.lesauterhin.eu/?p=1804

http://dommagescivils.wordpress.com/2013/04/30/lappel-a-une-pause-dans-le-developpement-des-robots-tueurs-des-nations-unies/