Robotisation de la guerre : le soldat SGR-A1, l’ultime sentinelle

Demain, la guerre sera entièrement robotisée. Mais le futur commence dès aujourd’hui…

Partager sur:
Sauvegarder cet article
Aimer cet article 0

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Robotisation de la guerre : le soldat SGR-A1, l’ultime sentinelle

Publié le 7 janvier 2015
- A +

Un article d’EchoRadar.

echoradar1Le soldat SGR-A1 est une sentinelle insensible au froid, à la soif, à la faim. Il ne connaît ni la peur, ni le doute ni la fatigue. Il fait preuve d’une concentration maximale et constante quelle que soit l’heure de sa mission et ne s’assoupit jamais. Il ne touche aucune rémunération pour son travail harassant, ne tombe pas malade, ne demande pas de permission pour retrouver sa famille et n’a pas d’état d’âme lorsqu’il faut s’engager au combat. En cas de blessure, notre soldat est réparable. L’unique préoccupation de SGR-A1 est la surveillance d’une frontière séparant deux nations ennemies, la Corée du Sud et la Corée du Nord…

SGR-A1, une sentinelle miraculeuse

er2Le système Samsung Techwin SGR-A11 (fig. 1-2-3-4), désigne un robot sentinelle fixe déployé depuis 2013 à la frontière des deux Corées. Il a pour mission la surveillance de la zone démilitarisée et la prévention des passages clandestins entre les deux pays. Capable de détecter l’entrée d’une personne dans sa surface d’intervention et de « tracker » plusieurs cibles en mouvement simultanément, il peut demander une identification par un mot de passe et faire feu après autorisation si cette entrée est considérée comme une intrusion hostile. SGR-A1 est équipé de caméras de surveillance haute performance et de capteurs détectant une cible en mouvement à une distance de 4 kilomètres. Son système de vision nocturne et ses capteurs optiques et infrarouges le rendent opérationnel de jour comme de nuit. Côté armement, SGR-A1 embarque une mitrailleuse Daewoo K3 de calibre 5.56mm capable de neutraliser une cible à 3,2 km ainsi qu’un lance-grenades de 40 mm. Le robot sentinelle est doté d’un système de communication performant, de microphones, de haut-parleurs lui permettant de dialoguer avec sa cible potentielle et d’en référer au centre de commandement. Lorsque le système détecte un intrus et que celui-ci ne fournit pas le bon mot de passe, il donne l’alerte, peut tirer des balles en caoutchouc ou ouvrir le feu avec sa mitrailleuse K3. Développé conjointement dès 2006 par les laboratoires d’une Université sud-coréenne et par Samsung Techwin, SGR-A1 coûte environ 200 000 euros l’unité. Il pèse 117 kg pour 120 cm de hauteur ce qui le rend facilement transportable. Ces robots sentinelles ont été déployés côte à côte sur plus de 250 kilomètres de zone frontalière. Ils remplacent désormais efficacement des centaines de soldats qui sont affectés à d’autres missions. Selon Huh Kwang-hak, le porte-parole de Samsung Techwin, « les soldats humains peuvent facilement s’endormir durant leur garde ou être victimes d’une baisse de vigilance. SGR-A1 ne connaît pas ce type de faiblesse et ignore la paresse humaine. Il ne craint ni le combat ni l’ennemi, ne conteste pas les ordres, économise les vies des militaires sud-coréens et soulage le budget de la Défense Nationale Coréenne ».

er3

Le programme de déploiement des sentinelles SGR-A1 est destiné à faire face à une baisse des effectifs militaires sud-coréens. La zone démilitarisée entre les deux Corées s’étend, en effet, sur 250 km avec un poste de garde tous les 50 mètres, deux gardes par poste et douze équipes par jour. La frontière est patrouillée sur toute sa longueur ; ce qui représente 5000 postes de garde et 120 000 hommes-année de garde chaque année. Les Sud-coréens ont installé une série de lignes défensives qui traversent toute la péninsule et qui sont dimensionnées pour résister à une attaque durant le temps moyen d’arrivée des renforts. Le KBS (Korea Barrier System KBS) se compose d’obstacles tactiques, de champs de mines, de lignes de barbelés et de dents de dragons. Depuis 1951, la guerre opposant les deux Corées est entrée dans une phase relativement statique avec la construction de lignes défensives résilientes. L’installation des sentinelles SGR-A1 vient renforcer le dispositif global de sécurisation de la Corée du Sud. Chaque robot SGR-A1 possède un capteur CCD et une caméra infrarouge permettant de détecter et de suivre des objets cibles à des distances allant jusqu’à 4 km pendant la journée et 2 km pendant la nuit. SGR-A1 est doté d’un logiciel de reconnaissance de forme qui lui permet de distinguer les humains des animaux ou d’autres objets. Il peut suivre plusieurs objets simultanément. À l’intérieur de la zone démilitarisée, le robot n’a pas besoin de distinguer les amis des ennemis. Lorsque quelqu’un franchit la ligne de frontière, il est considéré par défaut comme un ennemi. Il peut effectuer une sommation et commander à l’intrus de se rendre. SGR-A1 est alors capable de percevoir et de « comprendre » que l’intrus lève les mains en l’air et qu’il obtempère. Dans le cas d’une attaque identifiée en tant que telle, l’autorisation d’ouvrir le feu est donnée par le poste de commandement mais il existe une option qui donne une autonomie au système pour ouvrir le feu sans passer par une supervision humaine. La sentinelle SGR-A1 surpasse très largement l’ensemble des systèmes d’armes télé-opérés (RWS) comme les systèmes CROWS de Recon Optical, PROTECTOR de Kongsberg, ou RCWS30 RAFAEL qui sont tous montés sur un véhicule et servis par un équipage. SGR-A1 est un système fixe, ce qui permet d’éviter les problèmes de puissance, de communication ou de traction inhérents aux systèmes mobiles. Samsung parle ainsi d’une solution de surveillance optimale garantissant une sécurité absolue. Le développement du programme SGR-A1 a coûté plus de dix millions de dollars réunis sur fonds publics et privés. Il va permettre de réduire fortement le montant de la facture de la surveillance frontalière.

Ce que nous dit SGR-A1 sur la robotique militaire

er4

Le programme SGR-A1 s’inscrit pleinement dans un mouvement mondial de développement d’une robotique militaire qui doit avant tout réduire le danger et la pénibilité au combat (fig. 5-6). L’idée sous-jacente est de tendre vers une guerre ou une surveillance plus « propre », plus précise, moins coûteuse en vies humaines et plus acceptable pour des opinions publiques toujours réticentes face à l’engagement armé. Le concept de « guerre propre » date du début des années 1990 et accompagne la robotisation des équipements militaires. C’est dans ce contexte que le développement de systèmes semi-autonomes s’accélère aujourd’hui et qu’il apparaît aussi comme la meilleure réponse aux problèmes de réduction des effectifs et des budgets de défense. Depuis plus d’une vingtaine d’années, la robotique a réussi son entrée dans la doctrine et dans les opérations militaires. Par effet de transfert naturel, elle a contribué, sur la même période, à l’essor de la robotique civile. Notons bien que le terme de robotique militaire rassemble d’une part les systèmes pilotés par des algorithmes leur conférant un certain niveau d’autonomie et d’autre part, les machines sans aucune autonomie, commandées à distance par un opérateur humain. Lorsqu’elles sont déployées en opérations, elles apportent souvent des avantages fonctionnels et opérationnels décisifs avec des performances insensibles à la fatigue, aux conditions extérieures, aux sentiments et aux faiblesses humaines. Ces machines sont en outre facilement remplaçables en cas de destruction.

er5

Au niveau économique, un système semi-autonome comme SGR-A1 bouleverse les équilibres d’effectif des personnels, et de masse salariale. Lorsque le système est techniquement pertinent et lorsqu’il « industrialise » correctement l’action humaine, le gain peut devenir « scalable » et colossal… Si la Corée du Sud fait partie des acteurs majeurs de cette robotique militaire, le leader mondial de l’innovation et du développement reste bien entendu le géant américain.

À chaque menace son robot…

er6

Les États-Unis cherchent depuis longtemps à réduire les coûts de leur défense, à commencer par la masse salariale. Un soldat coûte cher pendant son activité et très cher durant sa retraite. Ainsi, la couverture sociale et médicale des personnels militaires américains s’élève aujourd’hui à 150 milliards de dollars, soit un quart du budget US de la Défense. Il est prévu de comprimer les effectifs de 60 000 hommes avant fin 2015 puis de réduire encore de 60 000 hommes avant fin 2019 pour atteindre finalement l’objectif de 420 000 hommes. À l’horizon 2030, la Brigade Combat Team (BCT), l’unité minimale susceptible d’être engagée au combat de manière autonome, devra passer de 4000 hommes à 3000 hommes tout en conservant sa capacité opérationnelle. Cette réduction s’effectuera par la recomposition de la plus petite unité utile au combat (squad – actuellement composée de 9 hommes) et par sa dotation en robots militaires et en équipements de transports optimisés. La Darpa (Defense Advanced Research Projects Agency ) travaille sur un format de squad réduite associant combattants humains et équipements robotisés. La doctrine sous-jacente de la Darpa s’énonce simplement : « À chaque menace son robot ». Les champs de développement sont multiples : mini-robots agiles détecteurs de mines et d’IED capables d’évoluer dans un environnement de combat peu accessible, drones d’observation terrestres à forte résilience, adaptés aux terrains escarpés, « robots mules » comme le programme Big Dog2 (fig. 9), de Boston Dynamics pouvant transporter 180 kg d’équipement sur 32 km de distance en 24 heures ou le programme Darpa Wildcat3 de robot autonome atteignant les 28 km/h sur terrain plat. Des exosquelettes de plus en plus performants sortent des laboratoires aujourd’hui pour équiper le futur combattant. D’une façon générale, le développement de la robotique militaire US devra venir compenser les réductions de personnels. Le niveau d’autonomie au combat du robot sera alors au centre de toutes les réflexions.

La question de l’autonomie au combat

er7

Les robots armés autonomes existent déjà. Le drone israélien Harpy vole de manière autonome au-dessus de sa zone de surveillance et cherche à détecter un signal radar ennemi. Lorsque ce signal est détecté, Harpy4 (fig. 7), ouvre le feu pour neutraliser la source du signal, sans intervention humaine. Le système israélien « Dôme de fer » (fig. 8) détecte le départ d’un missile ennemi et lance un missile d’interception selon une échelle temporelle incompatible avec les temps de réaction d’un opérateur humain. Enfin, de manière plus triviale, une simple mine armée enfouie dans le sol fonctionne de manière autonome avec un programme P embarqué rudimentaire mais qui la rend durablement autonome et que l’on peut résumer par : P = « si l’on exerce une pression sur moi supérieure à un certain seuil, j’ouvre le feu ». En robotique militaire, l’autonomie est entièrement déterminée par la composition du programme animant le robot, donc par l’équipe de développement du programme et par le constructeur. Qu’en est-il alors de la responsabilité d’ouverture du feu sur une cible ou en cas de dysfonctionnement du système d’armes ?

Pour les machines semi-autonomes ou télé-opérées, on commence à percevoir la complexité des interactions qui s’installent entre l’opérateur humain et le robot qu’il actionne. L’impact psychologique de ces interactions sur les personnels ne doit pas être négligé. Une étude récente menée par Julie Carpenter de l’Université de Washington a mis en lumière des effets assez inattendus dans la relation homme-robot lors d’une phase de combat. Il arrive parfois qu’un opérateur de robot démineur s’attache de manière irrationnelle à sa machine et que ses actes soient influencés par cet attachement. L’opérateur considère son robot comme un animal de compagnie ou comme une extension de son propre corps. La destruction éventuelle du robot est alors vécue comme une véritable mutilation. Syndrome d’extension et anthropomorphisme peuvent modifier les performances d’utilisation du robot par son opérateur. Dans le domaine aérien, les pilotes de drones présentent parfois des troubles liés à la déconnexion brutale qu’ils subissent lorsqu’ils terminent leur journée de travail. Le retour à la vie quotidienne impose souvent un contraste et une rupture violente avec la période d’opération militaire, notamment quand le drone procède à une neutralisation d’objectif.

Pour les machines autonomes, c’est bien le niveau d’intelligence artificielle (IA) embarquée qui va déterminer l’ensemble des interactions entre le robot et son environnement. La décision d’ouvrir le feu sera le résultat d’un calcul complexe effectué par la machine, sans intervention humaine. Les algorithmes d’apprentissage permettront au robot de s’adapter et d’acquérir une expérience construite sur un historique des situations déjà rencontrées. Selon une étude de la Darpa, les capacités des machines et leur niveau d’IA auront suffisamment augmenté en 2030 pour que le maillon faible de la chaîne opérationnelle devienne… l’homme.

Faudra-t-il alors incorporer une charte éthique dans l’IA du robot pour répondre aux dérives potentielles d’un système autonome ? Et qui en fixera les limites ?

Le débat éthique sur l’armement autonome doit guider son développement. Il doit également permettre de mesurer les effets de dissymétrie des capacités séparant le combattant humain du robot militaire. On notera que les lois morales d’Isaac Asimov s’avèrent strictement incompatibles avec le développement du robot combattant autonome. Rappelons brièvement le contenu de ces trois lois :

  • Loi 1 = Un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger.
  • Loi 2 = Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi.
  • Loi 3 = Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Les trois lois d’Asimov sont en contradiction avec les fonctionnalités du robot sentinelle SGR-A1 comme avec celles des drones combattants autonomes. Ces lois s’appliquent en effet à un contexte d’utilisation « bienveillante » du robot. Elles doivent être réécrites dans le cadre d’une utilisation militaire dont il faut souhaiter qu’elle respecte le droit international humanitaire.

er8

On peut se montrer tout de même pessimiste quant à la généralisation d’une éthique robotique militaire. La vitesse de diffusion de l’innovation et la capacité de détourner ou de modifier par le hacking les objectifs initiaux d’un algorithme nous montrent que si les robots combattants sont effectivement dotés d’une forme d’éthique programmée ou émergente, elle sera rapidement désactivée par ceux qui refusent cette limitation fonctionnelle. L’utilisation d’un robot combattant servant une action terroriste imposera de fait la désactivation de toute forme de calcul éthique bornant la capacité de destruction de la machine. Cette utilisation détournée n’induit pas forcément une diminution du niveau d’IA du robot. Une machine tueuse peut ainsi nécessiter un haut niveau d’IA pour sélectionner méthodiquement ses cibles, optimiser et hiérarchiser son action dans un unique objectif de destruction et sans aucune borne éthique. Si certains robots combattants bénéficieront d’une éthique émergente, d’autres robots en revanche en seront totalement dépourvus. Il est probable que cette dissymétrie algorithmique de dotation éthique impacte directement le combattant humain qui devra alors être capable d’évaluer le comportement d’un robot ami ou ennemi sur le champ de bataille. Dans tous les cas, le niveau d’IA déterminera ce comportement avec ou sans éthique. On peut imaginer que dans le cadre d’un combat opposant des machines apprenantes, les bornes éthiques de chaque robot puissent être recalculées en fonction des dommages subis, des pénalités ou des avantages obtenus. Chaque champ de bataille disposerait alors de sa propre éthique émergente issue des interactions, des défaites et des victoires sur le terrain.

Pour conclure, vers une guerre robotisée

sentinelle robot rené le honzecL’arrivée des robots combattants autonomes provoque de l’inquiétude et parfois un rejet de principe. Le comité international pour le contrôle des armes robotisées (ICRAC)5, est une ONG fondée en 2009 qui rassemble des experts en robotique, en éthique et en relations internationales. Elle s’est fixé l’objectif de freiner la future course aux armements robotisés. Un rapport des Nations Unies datant de mai 2013 appelle à l’interdiction temporaire des armes autonomes létales en attendant que les pays membres produisent une charte internationale d’utilisation de ces systèmes. Pourtant, ces réticences éphémères ne doivent pas masquer la force de la rupture technologique produite par l’armement autonome. Le développement des systèmes d’armes autonomes s’inscrit aujourd’hui pleinement dans un mouvement global d’automatisation des activités humaines. Les équipements militaires n’échappent pas à cette tendance majeure qui apporte du gain d’efficacité, qui économise la sueur, le sang, les larmes et les dollars et qui résulte directement de la convergence NBIC (Nanotechnologies, Biotechnologies, Informatique, sciences Cognitives). Au niveau systémique, la fusion des espaces physiques et numériques accompagne la montée en puissance de l’intelligence artificielle et favorise l’émergence de systèmes d’armes autonomes.

La sentinelle SGR-A1 est aussi un éclaireur…

Voir les commentaires (25)

Laisser un commentaire

Créer un compte Tous les commentaires (25)
  • Le robot est le poilu idéal dont rêvaient nos états-majors il y a un siècle. Il n’est sans doute pas anodin qu’il soit mis en oeuvre dans une guerre qui va fêter son 65e anniversaire. Il me semble pourtant qu’on sait depuis le Vietnam que la supériorité technique sur le terrain ne permet pas de « gagner la paix », et que plus la guerre sera déshumanisée, et plus les conflits perdureront. Pour le grand bonheur des fabricants de robots guerriers…

    • Encore mieux qu’un poilu : un poilu robuste, loyal, bon marché, multipliable, docile, obéissant, résistant, dévoué à sa cause… Sur l’efficacité : la technologie engagée au Vietnam était inadaptée au contexte et à ce type de conflit, elle était inefficace. Aujourd’hui, les drones d’observation et les drones armés sont d’une efficacité redoutable partout où ils sont engagés. La rupture technologique fait son œuvre !

      • Oh, je ne conteste pas que les drones soient militairement efficaces. Mais où ont-ils permis de restaurer durablement la paix ?

        • Le drone contribue à rendre admissible la guerre auprès d’opinions publiques occidentales de plus en plus réticentes à l’engagement des troupes biologiques. bien entendu, il ne se substitue (pas encore) à la négociation humaine et à la politique. Il réduit juste la « friction », celle de Clausewitz.

        • C’est à la politique de s’occuper de la paix, un drone est une arme, il n’est pas plus fait pour apporter la paix qu’un couteau…

          • Une arme est un outil. C’est pourquoi on est censé ne la donner qu’à ceux qui sauront quoi en faire, à ceux qui sont capables de déterminer avec leur cerveau que son usage est la meilleure option possible au service d’un but légitime et raisonnable. Si vous voulez des armes qui soient efficaces dans les mains de n’importe quel attardé mental, comment arrêterez-vous les attardés mentaux qui les utiliseront en fonction de pseudo-logiques incompréhensibles, à votre détriment ?
            Asimov vivait dans un rêve idéalisé, où le cerveau positronique mélangeait les lois de la robotique à celles de sa physique interne. Le développement du soldat-robot ne fait que hâter le jour où chacun devra être à jour de ses paiements de gardes du corps robots pour espérer voir la fin de la journée, comme pour un ordinateur avec les virus informatiques.

            Le sens où il faut développer les armes, c’est celui où elles amélioreront le sort des individus en répondant à leurs besoins, pas celui où elles permettraient à n’importe quel crétin d’aller dormir plutôt que de protéger son mode de vie et sa famille, ou, parce que c’est la même chose en fin de compte, d’aller assassiner sans difficulté ceux qui lui déplaisent.

  • Si on en est à ce niveau de connerie, pourquoi ne pas arrêter tout de suite de faire la guerre ?

    Ah, la guerre est le moteur de l’économie !
    Dommage.

    • mais non, la guerre n’est pas le moteur de l’économie, c’est son opposé

      • Désolé, j’ai poussé les études d’économie assez loin pour confirmer ce que j’ai dit. Le fer et le feu ont été domptés et mis au point, comme les explosifs, pour supplanter l’adversaire et l’ennemi. Internet ne nous contredira pas dont l’origine est le Pentagone. Les chinois découvrant le pouvoir d’expansion et de peur de la poudre (ratio de x 400 volumes d’expansion par rapport au volume d’origine & salpêtre 6000 av JC) n’ont pas en premier lieu pensé aux déclinaisons qu’en feraient aujourd’hui quotidiennement l’entreprise Ruggieri (fleuron français de la pyrotechnie) et les parcs d’attraction Disney.

        Désolé de vous contredire, mais la première pensée fut certainement, même si je n’ai pas assisté à la conversation qui s’en suivit, pour les adversaires à éliminer.

    • Ou plutôt la peur est le moteur, le nerf de la guerre.

      Laissez un humain seul avec lui même, il devient fou. Ainsi, il préfère inventer des machines pour shooter ces congénères.

      Avant il y avait la religion, après le socialisme, puis la guerre des robots. Il y a un lien…..
      Si si.

      Le vide de notre propre humanité, probablement !

      • D’accord avec votre première et votre deuxième affirmation. La science des causes et des causalités est une des disciplines les plus difficiles.

        Et avant la religion ? La peur était-elle absente chez les hominidés et les grands singes, chez les reptiles, chez les insectes, les êtres mono-cellulaires, etc ? Trouver alors l’origine de l’hormone du stress, le cortisol (de même incroyables pouvoirs de l’adrénaline et des endorphines), celle des organes endocriniens est la suite de la recherche. On rentre alors dans ce débat si passionnant entre la phylogenèse et l’ontogenèse, dont certains prétendent qu’il y a égalité entre les deux.

    • C’est le sophisme de la vitre cassé.

  • Bienvenu dans un monde sans humains.
    Profitez bien de ce temps qui vous reste, avant qu’un pirate social trahisse la confiance qu’on lui avait accordée en prenant le contrôle de l’appareil militaire, élimine physiquement ses concurrents, et devienne le grand maitre de la planète.
    Il nous reste, quoi, 1 ? 2 générations ?

  • Doit on s’extasier ou s’alarmer ?
    Ni l’un ni l’autre. A 3 km, la machine shoot un type (erreur de réglage de l’algomachin)
    Puis elle attend le type pour rentrer le code….bah, alors, il vient ce code !

    Terminator c’est bien plus cool et bien plus ancien. Mais on y vient doucement.
    Un petit mélange de Matrix et la Mayo est parfaite.

    Finalement l’humain a plus peur de lui meme que des machines. La preuve, il offre sa vie à celles ci.

    Soupir et nostalgie d’une époque où un petard, une tunique à fleurs suffisaient largement au bonheur de l’humanité. Maintenant, place au Shoot, yeah ! Ça va gicler les gars.

    • « Doit on s’extasier ou s’alarmer ? »
      Juste attendre que les Coréens du nord installe les mêmes machines de l’autre côté du « no man’s land » pour voir laquelle dégainera le plus vite. On en revient au bon vieux Western…

      • Ca pose la question de quelle supériorité un robot sud-coréen à 240000$ peut-il bien avoir sur une compagnie de 149 nord-coréens à 3.92$ pièce ?

  • Pour aller encore plus loin que vous et vous suivre dans ce chemin périlleux et pourtant si lucide, on pourrait croire, à la suite du GIEC qui n’est que la face blanche du diable (la cape d’invisibilité verte donnée aux rouges par le Pudlard soviétiforme), que sa face noire est représentée par les va-t-en-guerre de tous acabits qui ne seraient que la volonté de l’humanité d’en finir le plus rapidement possible avec sa bêtise (avec elle-même) en supprimant la cause de celle-ci – l’humain – et qu’elle délèguerait cette tache terminale aux machines. D’où le terme Teminator. Les mots parlent.

    • Réponse à E-moi le 7 janvier 2015 à 10 h 48 min

    • Comme Houellebecq délègue ces jours-ci de manière fictionnelle à l’Islam la responsabilité d’en finir avec la France des Lumières, déjà morte et enterrée par les socialistes.

      Moi le livre que je préfère en ce moment et depuis que je l’ai acheté il y a plus de 10 ans est « Le courage d’être soi » de Jacques Salomé. Court, mais un must qui nous évitera de sombrer dans toutes ces tentations suicidaires, si nombreuses actuellement, mises en évidence entre autres par le Suicide Français. Détruire le thermomètre ne servira à rien, la maladie sera toujours présente.

  • bonjour ,tout le monde se trompe ; le dernier mot reviendra à la dernière patrouille  » en colonne par un ,gardez vos distances ,éteignez vos cigarettes  » qui ira en douce régler le compte des petits matricules porteurs de neutrons .

  • Des réticences ? Il y en a toujours. A l’aube de l’humanité, on devait bien trouver des hommes farouchement opposés à l’agriculture et à la sédentarisation.
    L’arbalète a été longtemps décriée (et interdite) par le clergé. La mitrailleuse suscitait l’effroi. L’arme atomique nourrit maintenant l’imagination des auteurs de science-fiction.
    De toute manière, les trop grands frileux ou les prédicateurs fous (croyants ou athées), de tout temps, ne sévissent jamais indéfiniment.
    Bientôt des T800 à la place de nos légionnaires. Nos militaires en chemise-cravate à la place du treillis. Des soldats qui troqueront leur fusils pour des claviers et des souris. Le mug à café contre la gourde.

  • Merci pour cet article, il faut bien voir que tout ça c’est surtout une innovation dans le domaine des logiciels qui les actionnes. Ces machines réduisent aussi l’asymétrie entre les pays qui sont capables de supporter d’énormes pertes et ceux qui préfèrent faire attention à la vie de leurs soldats.

  • Alors, ça y est? On les a, ces robots tueurs.

    Ça devait arriver. La seule inconnue était la date, maintenant, il s’agit d’en mesurer les conséquences.

    J’ai écrit un article assez fouillé sur la question, il y a quelques années:
    http://egomet.sanqualis.com/?p=71#more-71

    Pour les paresseux, voici mes conclusions:

    A l’extrême, on peut craindre plusieurs choses :
    1. Une dilution des responsabilités, les fabricants, les militaires et les politiques se rendant mutuellement responsables des éventuels disfonctionnements, sous le regard d’une population passive.
    2. Un abaissement du seuil de la violence acceptable, c’est-à-dire une tentation plus grande d’employer la force, puisqu’elle coûte moins d’hommes dont les familles protesteront, ce qui peut décourager l’esprit de compromis nécessaire à la diplomatie.
    3. En partie en conséquence du point précédent, une indépendance aggravée de l’armée par rapport au politique.
    4. Après les deux précédents, la tentation d’une guerre permanente.
    5. Des répercussions liberticides sur la société civile dans le pays même qui emploie ces robots, en particulier si on en tire des applications policières.

    Et tout ça pour peut-être perdre la guerre au bout du compte.

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Nicolas Tenzer est enseignant à Sciences Po Paris, non resident senior fellow au Center for European Policy Analysis (CEPA) et blogueur de politique internationale sur Tenzer Strategics. Son dernier livre Notre guerre. Le crime et l’oubli : pour une pensée stratégique, vient de sortir aux Éditions de l’Observatoire. Ce grand entretien a été publié pour la première fois dans nos colonnes le 29 janvier dernier. Nous le republions pour donner une lumière nouvelles aux déclarations du président Macron, lequel n’a « pas exclu » l’envoi de troupes ... Poursuivre la lecture

Il y a 120 ans, par une froide matinée d’hiver, les frères Wright font décoller l’avion sur lequel ils travaillent depuis des mois. C’est une machine très complexe à piloter. Ce jour-là, ils réussissent à effectuer quatre vols de seulement 30 à 260 mètres qui se terminent chaque fois assez brutalement. Mais la boîte de Pandore est ouverte.

On peut tirer au moins cinq leçons de cet épisode.

 

Il est difficile d’estimer la portée d’une invention sur le long terme

Le 17 décembre 1903, personne n’imagine ce que d... Poursuivre la lecture

1
Sauvegarder cet article

Un article de Llewellyn H. Rockwell Jr.

Aujourd’hui, les guerres font rage en Ukraine et au Moyen-Orient. Quelle attitude les libertariens devraient-ils adopter face à ces guerres ? Est-il conforme aux principes libertariens de soutenir le camp qui, selon vous, a les meilleurs arguments ? Pouvez-vous inciter ce camp à tout mettre en œuvre pour remporter la victoire ?

Murray Rothbard, le plus grand de tous les théoriciens libertariens, ne le pensait pas. Et cela est vrai, même si vous avez correctement évalué le conflit. Regardon... Poursuivre la lecture

Voir plus d'articles