Drones : la chasse aux robots tueurs est ouverte

Après la tentative d’assassinat par un drone de Nicolas Maduro au Venezuela, l’occasion de revenir sur le débat concernant l’interdiction des robots tueurs.

Partager sur:
Sauvegarder cet article
Aimer cet article 0

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Drones : la chasse aux robots tueurs est ouverte

Publié le 6 août 2018
- A +

Par Charles Bwele.

Réalisé par le site Ban Lethal Autonomous Weapons pour sa campagne de sensibilisation Stop Killer Robots, le court métrage Slaughterbots a été présenté à Genève à l’occasion d’une rencontre sur les armes conventionnelles en novembre 2017 et a obtenu un succès fracassant sur les réseaux/médias sociaux.

À mi-chemin de la série Black Mirror et du film culte Matrix, cette fiction met en scène un essaim de minuscules drones dotés d’une technologie de reconnaissance faciale et munis de charges perforantes, qui sont ensuite utilisés par un mystérieux groupe terroriste pour commettre un massacre dans un amphithéâtre. Des centaines d’étudiants sont précisément identifiés, inlassablement traqués et froidement assassinés par des petits quadcoptères dans les couloirs d’une université. Pas de quartier. Aucune issue possible.

Une vidéo coup de poing

Vétéran mondialement reconnu de la recherche en intelligence artificielle et professeur à l’université de Berkeley, Stuart Russell conclut la vidéo coup de poing par un cri d’alarme :

Je travaille sur l’intelligence artificielle depuis 35 ans et ce film montre le potentiel qu’apportent la miniaturisation et la militarisation pour des technologies qui existent déjà. Il est énorme, car elles peuvent tuer des humains et mettraient en péril notre sécurité et notre liberté.

Malheureusement, ce film verse dans l’approche purement spectaculaire et émotionnelle en imaginant des quadcoptères armés et intelligents qui éliminent efficacement des foules candides et innocentes. Il n’enrichit guère le débat sur les petites armes létales et autonomes, évite la complexité des enjeux et ne suscite que très peu de questions sensées.

Intelligence artificielle et armes de destruction massive

En filigrane, Slaughterbots tente d’abord d’associer intelligences artificielles (IA), petites armes létales et autonomes et armes de destruction massive, puis de reléguer les micro-drones armés et intelligents parmi les armes de destruction massive ; qui seraient de facto appelées à être strictement réglementées ou interdites par des traités internationaux – à l’instar des armes nucléaires, biologiques et chimiques. Quiconque n’adhère point à cette vision n’est qu’un apôtre des « robots tueurs ».

Toutefois, la stricte réglementation ou l’interdiction d’une arme n’empêche guère les terroristes ou les dictateurs de les utiliser.

Malgré l’interdiction des mines antipersonnel, des groupes terroristes ou insurgés fabriquent eux-mêmes des mines artisanales – communément appelés Improvised Explosive Devices (IED) ou engins explosifs improvisés. Les Talibans et Al-Qaïda ne s’en privent guère contre l’armée afghane et les troupes américaines/européennes. Les dictateurs Saddam Hussein (Irak) et Bachar El-Assad (Syrie) n’ont eu aucun scrupule à recourir aux armes chimiques en temps de paix ou de guerre (1) contre des populations civiles, des factions rebelles ou des organisations terroristes… Et ces dernières ont fait de même (2) pendant les guerres d’Irak et de Syrie. En effet, l’État islamique avait également développé une passion particulière pour la chlorine et le gaz moutarde (3).

En bref, les vrais méchants n’ont que faire de la loi.

Réglementation inutile

Parallèlement, des États comme l’Inde, le Pakistan, la Corée du nord et Israël ont acquis l’arme nucléaire, peu importe qu’ils soient signataires ou non du Traité de Non-Prolifération (TNP) ou soumis à un embargo international. Ces États voulaient la Bombe, ils ont eu la Bombe… qui nécessite pourtant des moyens conséquents en recherche & développement (science, technologie, logistique, finances).

Dans le cas des micro-drones armés et intelligents, aucune réglementation ou interdiction n’entravera leur développement car les coûts de fabrication sont très faibles et les technologies embarquées sont librement accessibles à tous.

Aujourd’hui, plusieurs modèles de quadcoptères (autonomes, programmables ou télécommandés par smartphone/tablette) et leurs divers composants sont disponibles en grande surface et dans l’e-commerce pour 300 euros et plus. Ces engins peuvent être assemblés dans une chambre ou dans un garage et dérivés vers des myriades de fonctions possibles et imaginables : photographie, vidéo sportive, livraison de matériel, peinture de bâtiments, lance-flammes aérien, tronçonneuse volante, etc.

Innovation incontrôlable

En effet, un slaughterbot repose essentiellement sur l’innovation combinatoire car il exploitera de plus en plus des « solutions et technologies sur étagère » : microcontrôleur, châssis, hélice, bras rotor, élément 3D imprimé, app de reconnaissance faciale, etc.

Ce n’est qu’une question de temps avant qu’un bricoleur ou un ingénieur incorpore une arme à feu à un micro-drone artisanal, commercial ou militaire dans un garage ou dans un laboratoire.

Ainsi, le futur de la dronautique sera similaire ou comparable à celui de la cybersécurité : rien n’empêche ou n’interdit au hacker de développer en catimini un malware ou de pirater un serveur gouvernemental ou commercial avec son ordinateur personnel, sauf la peur éventuelle de l’uniforme. Rien n’empêchera ou n’interdira au bricoleur d’acheter, d’assembler ou de dériver un quadcoptère pour un usage létal, sauf la peur éventuelle de l’uniforme.

Pas d’effet sur les acteurs non étatiques

Rien n’empêche ou n’interdit à un État de développer en catimini des malwares, de pirater des serveurs gouvernementaux ou commerciaux, d’acheter, d’assembler ou de dériver des quadcoptères pour un usage létal, sauf la peur éventuelle… de quoi, au fait ?

Un accord de réglementation ou un traité d’interdiction des petites armes létales et autonomes incitera peut-être quelques États signataires (et seulement ceux signataires) à la retenue ou à la prohibition mais n’aura que très peu voire aucun effet sur les acteurs non-étatiques. Bienvenue chez les fous volants et leurs drôles de micromachines !

Par ailleurs, la stricte réglementation ou l’interdiction des petites armes létales et autonomes implique une restriction drastique de leurs premiers facteurs d’autonomie : l’électronique, l’informatique et l’intelligence artificielle grand public.

Le problème éthique est ailleurs

Faut-il pour autant ralentir ou restreindre l’innovation technologique afin de barrer la route aux « robots tueurs » ? Les États, les chercheurs, les ingénieurs, les inventeurs, les bricoleurs, les entreprises et les populations de tous bords seront-ils réellement enchantés par cette perspective ?

Par ailleurs, une arme létale et autonome est-elle moins éthique qu’une arme identique contrôlée par un humain ou dotée d’une informatique moins évoluée ? Et si les étudiants du film Slaughterbots avaient été tués par des micro-drones télécommandés, par un chasseur-bombardier F-16 ou par un drone Predator ?

Des armes létales et autonomes telles que le missile de croisière Tomahawk, le missile air-air Sidewinder, le missile air-sol Hellfire, le système de défense anti-aérien Phalanx et la torpille MU-90 – pour ne citer qu’elles – existent depuis belle lurette et font souvent la Une des médias.

Cependant, elles ne sont guère équipées d’une app de reconnaissance faciale, ne sont guère contaminées par la vogue « intelligence artificielle » et ne peuvent être fabriquées ni dérivées dans une chambre ou dans un garage du fait de leur lourdeur, de leur volume, de leur complexité et de leur coût.

Ce que les ennemis des robots tueurs ne vous disent pas

Vous n’êtes pas prêts de fabriquer un missile fire and forget ou une torpille intelligente dans votre salon, et ne courez guère le risque d’être victime d’une telle arme dans un pays riche en temps de paix, sauf accident ou cas exceptionnel. Votre grande et belle armée emploie ces onéreux et affreux joujoux dans des contrées pauvres et lointaines. En quelques mots, vous êtes nettement mieux loti qu’un civil irakien en ville ou son homologue afghan à la campagne.

C’est probablement pour toutes ces raisons que les exégètes de Stop Killer Robots n’ont pas bruyamment vilipendé ces armes létales et autonomes qui réunissent pourtant toutes les conditions pour figurer parmi les « robots tueurs » et autres incarnations du diable.

D’où quelques questions qui fâchent… savamment ignorées ou éludées par Stuart Russell et compagnie.

Quels critères (volumes/masses physiques, fonctions offensives ou défensives, degrés de complexité, d’autonomie et d’efficacité opérationnelle, etc) permettent de classer les « robots tueurs » ? Comment réglementer ou interdire les petites armes létales et autonomes sans distinction claire de leurs caractéristiques et sans définition nette de leurs usages autorisés ?

Course aux micro-armements

Le film Slaugherbots a tout de même l’immense mérite d’alerter le public – sur une éventuelle et chaotique course aux micro-armements intelligents et sur la prolifération consécutive de « robots tueurs » artisanaux ou industriels, de surcroît utilisés à des fins de répression ou de génocide par des régimes tyranniques ou par des individus malveillants.

Corollairement, les forces de l’ordre seraient confrontées à l’expansion de technologies nivelantes  (dronautique et IA grand public, impression 3D, géolocalisation, crimeware, etc) qui amoindriraient leurs atouts technologiques et tactiques face à d’ingénieux terroristes ou criminels.

Néanmoins, aucun être humain n’a été tué par un slaughterbot supervisé par un terroriste, à ce jour. Dès lors, comment interdire une arme inexistante ou probable et potentiellement létale ? Quels critères seraient appliquées en vue d’une prohibition préventive ? Les gouvernements devraient-il attendre que des petits « robots tueurs » fassent « suffisamment » de victimes avant de décréter leur interdiction ?

Le faux principe de précaution

La formation et l’expérience très poussées des unités policières/militaires d’élite (RAID, GIGN, SWAT, etc) au combat en milieu urbain ou rural (tactique, technologie, armement) ont prouvé leur efficacité globale contre des commandos terroristes. Pourquoi n’en serait-il pas de même avec des petites armes létales et autonomes ? Des micro-drones armés et intelligents (létaux ou non-létaux) spécialisés ou dérivés vers la lutte antiterroriste sont-ils envisageables ? Doit-on freiner ou prohiber leur recherche & développement et donc priver les états d’un éventail de contre-mesures peu ou prou adéquates en cas « d’attaque terroriste classique ou robotisée » ?

À quoi bon prôner d’emblée l’interdiction des petites armes létales et autonomes au nom d’un vague principe de précaution et sur la base d’une fiction ?

Et si de nombreux profils issus de divers horizons (chercheurs, ingénieurs, policiers, militaires, prospectivistes, juristes, sociologues, philosophes, médecins, responsables politiques, société civile, etc) produisaient des analyses transversales et des échanges réalistes sur les « robots tueurs », leurs formes et leurs fonctions ?

Annexes :

  1. What do we know about the regime’s use of chemical weapons in Syria? (The Guardian)
  2. L’EI a déjà utilisé des armes chimiques en Syrie et en Irak, selon la CIA (France 24)
  3. ISIS Used Chemical Arms at Least 52 Times in Syria and Iraq, Report Says (New York Times)
  4. Les militaires angoissés par les technologies « nivelantes » (Le Point)

Sur le web

Cet article a été publié une première fois en décembre 2017

Voir les commentaires (8)

Laisser un commentaire

Créer un compte Tous les commentaires (8)
  • Il me semblait peu clair que se soit vraiment Bachar el-Assad qui ai utilisé le armes chimiques et pourtant tous les journalistes en parlent et en reparlent et l’utilise comme exemple. J’estime que toute information non validé ou toute information qui à été invalidé ne devrait plus servir. Dommage qu’il n’y ai pas un regroupement d’informations qui puisse être disponible à tous et que cela soit réellement vérifié. (surtout pas par des debunker officiel qui trouvent clairement leur intérêt, sans parler des lobby qui devraient êtres interdits)

  • Les gens de gauche sont toujours aussi stupides, sinon ils ne seraient pas de gauche. Ils croient qu’en interdisant les armes elles ne seront pas utilisées, alors que de ce fait les méchants seront les seuls à se les procurer et les utiliser!

  • Si je peux acheter également mon propre robot tueur je ne vois pas le problème.
    Mais je doute.

  • si vis pacem …
    Comment se fait-il qu’il n’y ait pas, pour ne pas faire de jaloux, un gendarme, un policier et un soldat derrière chaque citoyen pour le protéger ?
    Les vidéos sur les possibilités et réalisations « amateurs », remarquablement abouties, d’armes intégrées aux drones fleurissent de toutes part y compris sur les grands sites.
    A quand un « deuxième amendement » en France, en Europe ?

    • @zelectron
      Bonjour,
      « Commen se fait-il qu’il n’y ait pas…derrière chaque citoyen pour le protéger ? »
      En étant derrière, on ne protège pas. Quand on protège, on est devant.

  • « À quoi bon prôner d’emblée l’interdiction des petites armes létales et autonomes au nom d’un vague principe de précaution et sur la base d’une fiction ? »
    Il y a en France, une loi qui dit que tout ce qui ressemble de près ou de loin à une arme est interdit de port. C’est pour cela qu’il est interdit de porter sur soi un couteau suisse ou une pince Leatherman, même dans un étui, et qu’un tournevis dans une portière de voiture peut-être considéré comme une arme et donc interdit.

  • Pourquoi traitez vous M. Bachar el-Assad de dictateur si ce n’est par psittacisme?

  • Cette fois ils l’ont manqué et c’est dommage. Le prochain essai sera le bon.!!

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Ce vendredi 2 février, les États membres ont unanimement approuvé le AI Act ou Loi sur l’IA, après une procédure longue et mouvementée. En tant que tout premier cadre législatif international et contraignant sur l’IA, le texte fait beaucoup parler de lui.

La commercialisation de l’IA générative a apporté son lot d’inquiétudes, notamment en matière d’atteintes aux droits fondamentaux.

Ainsi, une course à la règlementation de l’IA, dont l’issue pourrait réajuster certains rapports de force, fait rage. Parfois critiquée pour son ap... Poursuivre la lecture

Voilà maintenant quatre ans que le Royaume-Uni a officiellement quitté l'Union européenne. Depuis le Brexit, la Grande-Bretagne a connu trois Premiers ministres, et d'innombrables crises gouvernementales. Néanmoins, malgré le chaos de Westminster, nous pouvons déjà constater à quel point les régulateurs du Royaume-Uni et de l'Union européenne perçoivent différemment l'industrie technologique. Le Royaume-Uni est un pays mitigé, avec quelques signes encourageants qui émergent pour les amateurs de liberté et d'innovation. L'Union européenne, qua... Poursuivre la lecture

Année après année, mesure après mesure, étape par étape, technologie après technologie, le fisc augmente son pouvoir, sa surface de jeu, et son « efficacité » de collecte pour l’État, toujours en manque d’argent.

 

Le prélèvement à la source de l'impôt sur le revenu

Souvenons-nous du prélèvement automatique des impôts sur le revenu, une mission dont l’ambitieux Gérald Darmannin s’est brillamment acquitté, confortant ainsi l’État dans son assurance d’être payé, dans le coût de sa collecte (maintenant déléguée aux employeurs qu’... Poursuivre la lecture

Voir plus d'articles