L’ONU veut réguler l’IA militaire mais se heurte au principe de réalité concurrentielle

Ni la Chine ni les États-Unis n’accepteront de limiter ou de renoncer à la course à « l’IArmement » si déterminant dans la recherche de puissance et d’ascendant sur l’ennemi.

Partager sur:
Sauvegarder cet article
Aimer cet article 0

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

L’ONU veut réguler l’IA militaire mais se heurte au principe de réalité concurrentielle

Publié le 19 août 2023
- A +

Par Thierry Berthier.
Un article de Conflits

L’ONU a exprimé son désir de bannir l’usage de l’IA dans les armes de guerre autonomes à l’horizon 2026, et de réguler l’IA militaire à l’échelle mondiale. Antonio Guterres s’est dit favorable à la création d’un conseil spécifique à l’IA, ayant pour objectif d’aider à réguler, gérer l’usage de l’IA militaire et règlementer ses dérives potentielles.

La première réunion du conseil de sécurité de l’ONU dédiée à l’Intelligence Artificielle (IA) s’est tenue le 18 juillet 2023. Le secrétaire général des Nations unies, Antonio Guterres, a souligné les progrès spectaculaires de l’intelligence artificielle et de ses applications potentielles au bénéfice du développement commun, du recul de la pauvreté, de l’éducation, de l’industrie, de l’agriculture et de la résolution des grands problèmes environnementaux.

Il a également exprimé son désir de bannir l’usage de l’IA dans les armes de guerre autonomes à l’horizon 2026 et de réguler l’IA militaire à l’échelle mondiale. Selon lui :

« L’utilisation malveillante de systèmes d’IA à des fins terroristes criminelles ou étatiques pourrait entrainer un nombre effroyable de morts et de destructions, des traumatismes généralisés et des dommages psychologiques profonds à une échelle inimaginable ».

Ce constat posé, Antonio Guterres s’est dit favorable à la création d’un conseil spécifique à l’IA, ayant pour objectif d’aider à réguler, gérer l’usage de l’IA militaire et règlementer ses dérives potentielles.

La réunion dirigée par Antonio Guterres a donné lieu aux premières recommandations exprimées par certains membres de l’ONU montrant une volonté forte de régulation et d’interdiction future des systèmes armés autonomes.

Il faut tout d’abord saluer l’initiative du Conseil de Sécurité et l’organisation de cette réunion inaugurale car les révolutions IA-robotique vont transformer en profondeur l’ensemble des activités humaines. Il est donc important que les grandes puissances et les puissances secondaires puissent échanger librement au sein de l’ONU, et débattre sur les enjeux et les défis de l’IA.

Le volet militaire de l’IA nous fait a priori passer du « côté obscur de la Force ». La réunion dirigée par Antonio Guterres a donné lieu aux premières recommandations exprimées par certains membres de l’ONU montrant une volonté forte de régulation et d’interdiction future des systèmes armés autonomes.

Les trois premières puissances militaires (USA, Chine et Russie) ont indiqué, l’une après l’autre, qu’elles se réservaient le droit de développer des systèmes d’armes intégrant de l’IA, tout en précisant que ces systèmes devaient rester sous le contrôle humain.

Derrière ces premières déclarations, il faut comprendre qu’aucune de ces trois puissances dominantes n’a l’intention de signer un texte limitant l’usage de l’IA militaire ni de freiner ses investissements massifs (en dizaines de milliards de dollars) réalisés au titre de la recherche et du développement.

 

Les quatre principes de réalité systémique de l’IA

Concrètement, la déclaration du secrétaire général de l’ONU sur l’IA militaire se heurte à quatre grands principes de réalité systémique associés à la diffusion et à l’usage du progrès technologique au bénéfice des activités humaines, civiles et militaires :

Principe n°1 : Le principe du sens unique temporel ou de non-retour en arrière face à une avancée technologique majeure, accessible, impactante et à fort pouvoir libérateur.

Principe n°2 : Le principe de diffusion maximale d’une technologie duale (ayant des applications à la fois civiles et militaires) ;

Principe n°3 : Le principe d’appropriation maximale des technologies efficaces dans un contexte de compétition mondiale et de concurrences géopolitiques.

Principe n°4 : Le principe d’emploi maximal de technologies apportant un avantage tactique ou stratégique sur un adversaire en contexte de guerre ou de guerre froide.

 

L’intelligence artificielle comme moteur de la haute intensité du combat

Les applications militaires de l’intelligence artificielle s’inscrivent dans toute la largeur du spectre opérationnel et renforcent les dynamiques de haute intensité au combat.

  • Renseignement : collecte, traitement et analyse automatique des données, images satellitaires, imagerie drones, analyse de documents, traduction automatique, localisation, contextualisation à partir d’images, veille documentaire.
  • Logistique : préparation de missions, OPEX, aide au dimensionnement du dispositif, préparation du soutien, optimisation des approvisionnements (carburants, vivres, eau, munitions).
  • Simulation : simulation de déploiement, wargame, test d’hypothèses et de capacités, simulation de déploiement d’unités robotisées, entrainement des troupes au combat, entrainement sur de nouveaux systèmes d’armes.
  • Conduite des opérations, IA C2 : aide à la décision pour les centres de commandement et contrôle (IA C2), reporting, tests et validation d’hypothèses de manœuvres, tests d’impact et d’attrition au regard de l’intensité du combat
  • Systèmes robotisés armés : augmentation du niveau d’autonomie des systèmes, escadrilles et essaims de drones aéroterrestres, marins, sous-marins. Systèmes et boucliers anti-missiles autonomes, systèmes radars intelligents, Lutte Anti-Drones par essaims de drones anti-drones, Niveaux d’autonomie L0,L1,…L5
  • Cybersécurité et cyberdéfense : emploi de l’IA pour sécuriser les applications, systèmes d’information et systèmes d’armes, SIEM UEBA (User and Entity Behavior Analytics (UEBA) and Security Information and Event Management (SIEM)), détection et remédiation automatique des attaques, maitrise du risque cyber. Opérations cyber offensives soutenues par l’IA.
  • PsyOps, opérations cognitives, ingérence et contre-ingérence : détection et remédiation des opérations d’influence, de fracturation des opinions, d’atteinte à l’image, de campagnes de FakeNews produites à partir des réseaux sociaux (fermes de bots), production d’ADFI (Architectures de Données Fictives Immersives) utilisées pour tromper ou influencer une cible.

 

Les grands défis de l’IA militaire

La robotisation du champ de bataille, la préservation du sang du soldat humain, la réduction temporelle des toutes les étapes de la boucle OODA [O – Observe (observer), O – Orient (orienter), D – Decide (décider), A – Act (agir)], et la recherche de haute intensité au combat sont des objectifs prioritaires pour toutes les armées du monde.

Chacun de ces objectifs s’appuie sur les progrès des sciences et technologies, en particulier sur ceux de l’intelligence artificielle qui apporte l’autonomie, la précision et la vitesse de réaction dans les systèmes.

Si les défis de l’IA militaire sont multiples, deux d’entre eux apparaissent désormais comme prioritaires en retour d’expérience notamment de la guerre russo-ukrainienne :

Défi n°1 – l’IA-C2 (Command & Control) 

L’IA intégrée au sein du système de commandement permet de prendre en compte l’ensemble des données qui remontent du terrain, du renseignement, des capteurs déployés, des unités à engager ou déjà engagées.

L’apport de l’IA réside dans sa capacité à tester des hypothèses de manœuvre, à en mesurer les effets sur l’ennemi et sur ses forces, à évaluer le risque associé à une action militaire. La simulation numérique intégrant de l’apprentissage automatique et de l’apprentissage par renforcement donne la possibilité de jouer une séquence opérationnelle, de modifier ses paramètres, de rejouer la séance et de converger vers une solution optimale pour le chef militaire qui en tient compte dans son arbitrage.

Défi n°2 – l’IA embarquée dans les escadrilles et essaims de robots aéroterrestres

La guerre russo-ukrainienne est une guerre des drones aériens vecteurs d’une très forte attrition sur les chars et blindés des deux belligérants.

Les premières escadrilles de munitions téléopérées navales ont été déployées par l’armée ukrainienne contre les navires russes. Des drones kamikazes sont régulièrement utilisés dans la profondeur par les deux armées. Ainsi, la question de la lutte anti-drones (LAD) devient prioritaire tout en restant techniquement complexe. L’avantage restant à l’attaquant, le défi de la LAD repose avant tout sur les capacités de détection, de suivi et de neutralisation des vecteurs ennemis.

L’intelligence artificielle apporte des solutions très prometteuses pour contrer l’attaque d’un essaim aérien constitué de plus de 100 drones. La méthode de LAD consiste à mettre en œuvre un essaim de drones aérien « anti-essaim » composé lui aussi de plus de 100 drones « racers » qui vont chacun suivre un vecteur ennemi et le détruire par choc cinétique ou par détonation via une charge embarquée. L’action globale de l’essaim anti-essaim ne peut être dirigée que par l’intelligence artificielle.

 

Ces deux défis, qui reposent pleinement sur les progrès de l’IA, font l’objet d’investissements en R&D très conséquents (plusieurs dizaines de milliards de dollars) en Chine et aux États-Unis. La course à la haute intensité et aux missiles hypersoniques repose elle aussi sur les apports de l’IA militaire. On comprend facilement que ni la Chine ni les États-Unis n’accepteront de limiter ou de renoncer à la course à « l’IArmement » si déterminant dans la recherche de puissance et d’ascendant sur l’ennemi.

Le secrétaire général de l’ONU mesure parfaitement l’importance des enjeux géopolitiques qui accompagnent le développement de la robotique militaire. Il aura par contre toutes les difficultés à obtenir un moratoire ou un encadrement sur ce type d’armes.

Sur le web

Voir les commentaires (7)

Laisser un commentaire

Créer un compte Tous les commentaires (7)
  • Avatar
    jacques lemiere
    19 août 2023 at 7 h 49 min

    « L’ONU a exprimé son désir de bannir l’usage de l’IA dans les armes de guerre autonomes à l’horizon 2026, et de réguler l’IA militaire à l’échelle mondiale. »

    quand je lis ça…je ne sais pas ce que ça recouvre au juste…

    parce que ça dépend tout à fait de qualifier tel système informatique comme IA ou non…
    et tenter de classifier en joli paragraphes ne change pas grand chose..

    on imagine un problème avec des armes autonomes…certes…
    que ce soit une machine seule qui décide de la mort d’un être humain… alors qu’on tolère le bombardement de civil…

    bal des hypocrites…

  • L’ONU va fêter ses 78 ans. Il est temps, à voir ce qu’elle raconte, de lui trouver un EHPAD.

    • Avatar
      jacques lemiere
      19 août 2023 at 8 h 46 min

      à tout le moins de cesser de la respecter sur son nom seul..

      la mission de l’onu actuelle…
      « Maintenir la paix et la sécurité internationales. Protéger les droits de l’homme. Fournir de l’aide humanitaire. Promouvoir le développement durable. »

      et qui lui a donné la majorité de ces missions?? fort mal définies!!

      je présume que tous les membres respectent donc les droits de l’homme… non? mais comment ce fait? ça ne « coute » pas cher…

      bal des hypocrites…

      • Avatar
        jacques lemiere
        19 août 2023 at 8 h 49 min

        au passage ..il n’y pas des contradictions??? est ce que protéger les droits de l’homme ne justifie pas de ne pas maintenir la paix???
        bah détail… je répète ma leçon l’onu c’est bien i

  • Va t’on assister à un remake du film Wargame de 1983 ?
    L’ordinateur comprend qu’une guerre menée par deux ordinateurs réfléchissant de manière rationnelle et envisageant toutes les solutions possibles ne peut pas être gagnée.

    • L’humain comprend tout de suite que celui qui a plus de missiles d’attaque que l’autre n’a de missiles anti-missiles aura vite fait de détruire l’ordinateur de l’autre.

  • Qu’est-ce que cela va nous couter ; il aurait mieux valu payer des militaires pour se faire tuer que se lancer dans l’IA pour soit disant établir la paix sur Terre

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don
7
Sauvegarder cet article

Notre nouveau et brillant Premier ministre se trouve propulsé à la tête d’un gouvernement chargé de gérer un pays qui s’est habitué à vivre au-dessus de ses moyens. Depuis une quarantaine d’années notre économie est à la peine et elle ne produit pas suffisamment de richesses pour satisfaire les besoins de la population : le pays, en conséquence, vit à crédit. Aussi, notre dette extérieure ne cesse-t-elle de croître et elle atteint maintenant un niveau qui inquiète les agences de notation. La tâche de notre Premier ministre est donc loin d’êtr... Poursuivre la lecture

Ce vendredi 2 février, les États membres ont unanimement approuvé le AI Act ou Loi sur l’IA, après une procédure longue et mouvementée. En tant que tout premier cadre législatif international et contraignant sur l’IA, le texte fait beaucoup parler de lui.

La commercialisation de l’IA générative a apporté son lot d’inquiétudes, notamment en matière d’atteintes aux droits fondamentaux.

Ainsi, une course à la règlementation de l’IA, dont l’issue pourrait réajuster certains rapports de force, fait rage. Parfois critiquée pour son ap... Poursuivre la lecture

7
Sauvegarder cet article

Les milieux financiers découvrent tardivement les faiblesses du modèle chinois, pourtant perceptibles depuis une décennie. C’était prévisible pour tout observateur de la démographie, des mécanismes de développement et du communisme.

On peut penser notamment aux dettes souscrites en contrepartie de faux actifs, par exemple pour la construction de logements, alors qu’il y a de moins en moins de jeunes pour les occuper ou d’infrastructures redondantes, faisant momentanément la joie des bâtisseurs. Je me doutais bien que ces dettes sortira... Poursuivre la lecture

Voir plus d'articles