Armes autonomes : une lettre ouverte de chercheurs en IA et robotique

HAL9000 by RV1864 on flickr - CC BY-ND 2.0

Si une grande puissance militaire décide de développer des armes utilisant l’intelligence artificielle, les armes autonomes deviendront les kalachnikovs de demain.

HAL9000 by RV1864 on flickr - CC BY-ND 2.0
HAL9000 by RV1864 on flickrCC BY-ND 2.0

Les armes autonomes choisissent et frappent des cibles sans intervention humaine. Elles incluent, par exemple, des quadcopters armés qui peuvent rechercher et éliminer les personnes qui répondent à certains critères prédéfinis, mais ne comprennent pas les missiles de croisière ou drones téléguidés pour lesquels les humains prennent toutes les décisions de ciblage. La technologie de l’Intelligence Artificielle (IA) a atteint un point où le déploiement de ces systèmes est, pratiquement sinon légalement, faisable non dans les décennies mais dans les années à venir et les enjeux en sont élevés : les armes autonomes ont été décrites comme la troisième révolution dans la pratique de la guerre, après la poudre et les armes nucléaires.

De nombreux arguments ont été avancés pour et contre les armes autonomes, par exemple que le remplacement des soldats humains par des machines est positif en réduisant les pertes pour celui qui les utilise, mais mauvais puisqu’il abaisse ainsi le coût d’un engagement au combat. La question clé pour l’humanité d’aujourd’hui est de savoir s’il faut se lancer dans une course mondiale aux armements IA ou l’empêcher. Si une grande puissance militaire décide de développer de l’arme IA, une course mondiale aux armements est pratiquement inévitable, et le point d’arrivée de cette trajectoire technologique est évident : les armes autonomes deviendront les kalachnikovs de demain.

Contrairement aux armes nucléaires, elles ne nécessitent pas de coûteux investissements ou des matières premières difficiles à obtenir, aussi vont-elles devenir omniprésentes et bon marché pour toutes les puissances militaires susceptibles de les produire en masse. Ce ne sera qu’une question de temps avant qu’elles n’apparaissent sur le marché noir et entre les mains de terroristes, de dictateurs souhaitant un plus grand contrôle de leur population, de seigneurs de guerre voulant perpétrer un nettoyage ethnique, etc. Les armes autonomes sont idéales pour des tâches telles que les assassinats, la déstabilisation des nations, la soumission des populations et le massacre sélectif d’un groupe ethnique particulier.

Nous pensons donc que la course aux armements militaire IA ne serait pas favorable à l’humanité. Il existe de nombreuses façons grâce auxquelles l’IA peut sécuriser les zones de combats pour les humains, en particulier les civils, sans créer de nouveaux outils pour tuer des gens.

Tout comme la plupart des chimistes et des biologistes n’ont aucun intérêt à construire des armes chimiques ou biologiques, la plupart des chercheurs en Intelligence Artificielle n’ont aucun intérêt à construire des armes IA, et ne veulent pas que d’autres discréditent leur domaine ; ce faisant, ils créent la possibilité d’un rejet massif par le public de l’IA qui bloquerait ses futurs avantages sociétaux.

En effet, les chimistes et les biologistes ont largement soutenu les accords internationaux qui ont permis d’interdire les armes chimiques et biologiques, tout comme la plupart des physiciens ont soutenu les traités interdisant les armes nucléaires spatiales et les armes à laser aveuglantes.

En résumé, nous croyons que l’IA offre un grand potentiel pour le bénéfice de l’humanité dans bien des domaines, et que nous devons avoir pour objectif de le réaliser. Le lancement d’une course aux armements IA est une mauvaise idée, et doit être empêché par une interdiction des armes offensives autonomes sans contrôle humain significatif.

  • Traduction par Gérard-Michel Thermeau de « Autonomous Weapons : an Open Letter from AI & Robotics Researchers » pour Contrepoints

—-
Sur le web