Tuer ou ne pas tuer : le dilemme moral ignoré par les robots tueurs

La possibilité d’accorder le droit de tuer à des machines ne sera pas sans conséquence.

Partager sur:
Sauvegarder cet article
Aimer cet article 0
Dalek 5 By: Tony Hisgett - CC BY 2.0

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Tuer ou ne pas tuer : le dilemme moral ignoré par les robots tueurs

Publié le 20 octobre 2018
- A +

Par Éric Martel.
Un article de The Conversation

Si des humains peuvent parfois se montrer inhumains, pourquoi des non-humains ne pourraient-ils pas se faire plus humains qu’eux, c’est-à-dire mieux se conformer aux principes normatifs définissant le fait de se conduire “humainement” ?  (Grégoire Chamayou)

Les robots létaux autonomes suscitent une forte inquiétude auprès du grand public. Cette dernière est alimentée par des mouvements qui militent pour l’interdiction de tels systèmes d’armements. Récemment, le Future of Life Institute a ainsi diffusé un petit film, très inquiétant, où l’on voit des mini drones équipés de systèmes de reconnaissance faciale se poser sur des têtes humaines afin d’y faire exploser leur charge creuse. Heureusement, il ne s’agit là que d’une fiction.

Le robot tueur est par essence beaucoup plus qu’une arme, puisqu’il est apte à choisir et décider de lui même de tirer sur une cible ennemie. Étant dépourvus de conscience, les robots tueurs ne peuvent être tenus pour responsables de leurs actes. Ils ne peuvent donc être jugés, ils doivent répondre à d’autres modes de régulation. L’autonomie des robots tueurs permet non seulement de transformer la conduite des opérations militaires, mais également le paradigme même de la guerre. Les conséquences sociales, voire morales de l’usage des robots tueurs sont donc loin d’être négligeables.

Ces questions doivent être mises en perspective dans le cadre d’un processus global d’automatisation de la guerre. Nous allons nous intéresser ici à un aspect crucial de l’arrivée des robots létaux autonomes : leur capacité à décider de leur propre chef de tirer et donc tuer des combattants ennemis.

La guerre : une activité très humaine

La guerre est essentiellement une activité régie par des règles et des conventions humaines résultant de normes culturelles et religieuses. Mais elle a également sa propre logique qui défie les conventions. Pour le grand théoricien militaire Clausewitz, elle est « un acte de violence […] qui théoriquement n’a pas de limite ». Ce que les propos d’Eisenhower tendraient à confirmer :

En ayant recours à la force, on ne savait pas où on allait […] Plus on s’enfonçait profondément dans le conflit, moins il y avait de limites […] sauf celles de la force elle-même.

Pour résumer, l’on pourrait affirmer comme le général Sherman durant la Guerre de Sécession, avant de faire évacuer puis brûler la ville d’Atlanta, que « la guerre est l’enfer ».

Néanmoins, ces tendances sont contenues, et de façon paradoxale, par les militaires eux-mêmes qui, selon le philosophe Michael Walzer, sont désireux de distinguer « la tâche à laquelle ils consacrent leur vie d’une boucherie pure et simple » par le respect des conventions de la guerre.

Les conventions de la guerre

Les conventions de Genève couvrent deux aspects : le jus ad bellum, droit de déclencher et faire la guerre, et le jus in bello, droit dans la guerre, qui nous concerne particulièrement.

Ce dernier part d’un axiome fondateur : la distinction entre les combattants et les civils. Les premiers ont le droit de tuer en vertu du fait qu’ils peuvent eux-mêmes être tués ; les seconds doivent en être préservés. De cette distinction fondamentale découle quatre grands principes :

  • humanité ;
  • nécessité militaire ;
  • proportionnalité ;
  • discrimination.

Deux principes nous intéressent particulièrement. Le premier, le principe de proportionnalité prescrit que s’il est admissible que des civils soient tués afin de détruire des objectifs ennemis d’importance, cela doit être fait dans une juste mesure.

Selon le journaliste Andrew Cockburn, l’armée américaine considérerait aujourd’hui en Afghanistan qu’un ratio de 30 civils tués pour chaque chef taliban abattu serait acceptable.

Le second, le principe de discrimination stipule qu’il faut veiller à clairement différencier les civils des combattants militaires.

Le respect de ces deux principes dépend fortement de l’intensité du conflit en cours. Ainsi au Vietnam, les commandants, déstabilisés par un ennemi fuyant, ordonnaient systématiquement le bombardement des villages d’où quelques coups de feu étaient tirés.

L’opposition aux robots tueurs

Elle se joue principalement sur les deux critères vus précédemment. En ce qui concerne le facteur de discrimination, l’on ne peut nier qu’il représente un point faible de ces machines : comment différencier, en effet, un soldat qui se rend d’un soldat en armes, ou d’un soldat blessé ?

Si, actuellement, les techniques de reconnaissance de forme sont aptes à distinguer des uniformes, elles font néanmoins, comme l’affirme le roboticien Noel Sharkey, des confusions grossières. Par contre, il est très difficile pour un robot d’identifier un soldat blessé, voire un soldat déposant les armes.

À cela s’ajoute le critère de proportionnalité : une machine peut-elle décider d’elle-même combien de civils pourraient être tués afin de détruire sa cible ?

Pour renforcer ces deux grands arguments, les opposants aux robots tueurs posent un principe d’humanité. Ils partent du principe que les humains ne sont pas rationnels puisqu’ils ont des émotions et se fient à leur intuition. Dans leur majorité, ils manifestent une certaine répulsion à l’idée de tuer leur prochain. C’est ainsi que des études effectuées après la Seconde Guerre mondiale ont montré qu’en moyenne seuls 18,75 % des soldats américains placés en situation d’engagement avaient usé de leur arme.

Cette très vive opposition embarrasse les militaires et explique leurs hésitations quant à l’usage de ces armes. Mais nombreux sont ceux qui, au sein de l’institution, pensent que des puissances comme la Chine ou la Russie n’auront certainement pas ces appréhensions morales et n’hésiteront pas à développer à l’avenir ce type d’armements.

L’arrivée des robots tueurs serait donc inéluctable et mériterait d’être anticipée.

Qui est responsable ?

En vertu de ce principe Ronald C. Arkin, un roboticien, propose de concevoir des machines agissant de façon plus éthique que ces sujets imparfaits que sont les combattants humains. Il considère que « confrontés à l’horreur du champ de bataille », les soldats voient leur capacité de jugement brouillée par les émotions et le stress du combat. Ils auraient donc tendance à commettre des atrocités. Les robots létaux autonomes seraient donc la solution permettant de garantir le respect des lois de la guerre.

Pour Grégoire Chamayou, le problème se situe à un autre niveau. Jusqu’à présent l’arme qui est une chose et le combattant qui est une personne, donc juridiquement responsable, ont toujours été séparés. Le robot létal autonome est lui un ensemble dans lequel l’arme et le combattant sont confondus : agent et instruments sont liés écartant toute possibilité de responsabilité juridique. Comment juger une machine ? Il voit ainsi une chose qui se met à faire usage d’elle-même.

La possibilité d’accorder le droit de tuer à des machines ne serait pas sans conséquence. Si l’on prend en compte qu’à la guerre, le droit de tuer est habituellement réservé aux combattants en vertu du fait qu’ils peuvent eux-mêmes être tués, considérer qu’ils peuvent être éliminés par une machine « équivaudrait à mettre l’homicide sur le même plan que la destruction d’une pure chose matérielle ».

Cette question n’est pas que militaire. Elle aura forcément des répercussions dans l’usage d’autres systèmes automatiques tels que les voitures autonomes. On le voit déjà avec les répercussions d’accidents mortels ayant impliqué ce type de véhicules : qui est responsable ?


L’auteur publie le 18 octobre « Robots tueurs. La guerre déshumanisée, les robots et drones autonomes visent zéro mort ».

Eric Martel, Docteur en Sciences de Gestion/Chercheur associé au LIRSA, Conservatoire national des arts et métiers (CNAM)

La version originale de cet article a été publiée sur The Conversation.

The Conversation

Voir les commentaires (6)

Laisser un commentaire

Créer un compte Tous les commentaires (6)
  • Dalek..exterminez….
    La guerre n’est pas propre aucune guerre n’est propre et un soldat n’a pas plus le choix qu’un robot…le romantisme guerrier avec des règles , pas sérieux juste bon a faire durer une guerre et ses atrocités.

  • Ce sont les fabricants de ces robots les responsables, surtout pas pas les robots. Cette confusion est soigneusement entretenue pour augmenter la peur des robots en général et attiser de la haine à leur encontre …

    • @zelectron
      Bonjour,
      Les responsables seront ceux qui les auront achetés/acquis et mis à disposition de l’Armée, de la Police.
      Ces robots restent des armes : ils ne sont pas des combattants. Un char d’assaut autonome ne serait pas un combattant : ce serait un véhicule autonome armé ou une arme véhiculée autonome.
      Le commandement, le haut commandement, les autorités militaires qui décideront et metttont ces gadgets mortels sur un champ de bataille en seront les responsables. Et aux plus niveaux nous avons des responsables des Armées comme notre bon ministre de la Défense, et son chef le président.
      Ces gadgets ne sont en rien différents d’un sous-marin, d’un porte-avion, ou d’un Rafale. La seule chose qui manque est la présence d’un « pilote » humain.

      « À cela s’ajoute le critère de proportionnalité : une machine peut-elle décider d’elle-même combien de civils pourraient être tués afin de détruire sa cible ? »
      Un robot suit un logique arythmétique, donc s’il a une mission, il ne se souciera pas des fameux « dommages collatéraux ». Pour rappel, l’un des derniers matchs d’échecs entre une I.A et un humain dans lequel l’humain a perdu, l’I.A a sacrifié un de ses propres pions. L’I.A a appris de l’humain. Dans ce cas, elle ne peut que devenir aussi mauvaise que le sont certains être humains.
      Enfin, en France, vu qu’on veut taxer les robots, et qu’on a le principe constitutionnel de « précaution », ces robots seront pour les autres. Les citoyens lambda n’ont pas le droit de porter des armes, pourquoi des robots le seraient ?

  • Pourquoi le responsable ne pourrait tout simplement pas être le propriétaire ?

  • Qui est responsable ?

    Une seule réponse possible, valable hier, aujourd’hui comme demain : le propriétaire, sujet de droit, tandis que les machines, même autonomes et mobiles, ne sont que des biens meubles comme les animaux, et ne sont que des objets de droit.

    Même en cas d’IA (quoique ce concept puisse signifier), la machine reste une machine, un objet appartenant forcément à son propriétaire, ce dernier étant pour toujours le seul responsable.

    Si l’objet doté d’une IA et doué de mobilité n’a fait l’objet d’aucune transaction, c’est évidemment son fabricant qui demeure entièrement responsable.

  • Ce n’est pas Sherman qui incendia Atlanta mais le général sudiste Hood qui ordonna de mettre le feu aux dépôts lors de l’évacuation de la ville, celui-ci se propagea à toute la ville!

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Nicolas Tenzer est enseignant à Sciences Po Paris, non resident senior fellow au Center for European Policy Analysis (CEPA) et blogueur de politique internationale sur Tenzer Strategics. Son dernier livre Notre guerre. Le crime et l’oubli : pour une pensée stratégique, vient de sortir aux Éditions de l’Observatoire. Ce grand entretien a été publié pour la première fois dans nos colonnes le 29 janvier dernier. Nous le republions pour donner une lumière nouvelles aux déclarations du président Macron, lequel n’a « pas exclu » l’envoi de troupes ... Poursuivre la lecture

1
Sauvegarder cet article

Un article de Llewellyn H. Rockwell Jr.

Aujourd’hui, les guerres font rage en Ukraine et au Moyen-Orient. Quelle attitude les libertariens devraient-ils adopter face à ces guerres ? Est-il conforme aux principes libertariens de soutenir le camp qui, selon vous, a les meilleurs arguments ? Pouvez-vous inciter ce camp à tout mettre en œuvre pour remporter la victoire ?

Murray Rothbard, le plus grand de tous les théoriciens libertariens, ne le pensait pas. Et cela est vrai, même si vous avez correctement évalué le conflit. Regardon... Poursuivre la lecture

0
Sauvegarder cet article

Paix et liberté (dans cet ordre), fut le slogan et le programme adopté par Frédéric Bastiat en 1849, et il résume l’aspiration commune d’un courant de pensée tout entier.

 

Pourquoi les libéraux sont contre la guerre

Au point de vue utilitaire, la guerre est ruineuse : c’est proprement « une industrie qui ne paie pas ses frais » (Yves Guyot, L’économie de l’effort, 1896, p. 49).

Elle implique des destructions, des crises commerciales, des dettes publiques, qui ruinent les existences, découragent les initiatives et ra... Poursuivre la lecture

Voir plus d'articles