Intelligence artificielle : l’US Air Force battue !

En simulation, l’intelligence artificielle ALPHA écrase un colonel instructeur de l’US Air Force !

Partager sur:
Sauvegarder cet article
Aimer cet article 0

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Intelligence artificielle : l’US Air Force battue !

Publié le 2 juillet 2016
- A +

Par Charles Bwele.

Intelligence artificielle : l'US Air Force battue !
By: PhilmsCC BY 2.0

Colonel Gene Lee (US Air Force) : « ALPHA semblait être au courant de mes intentions et réagissait instantanément à mes changements de tactique et à mes déploiements de missiles. Elle savait comment défaire mes moindres tentatives. Elle se déplaçait instantanément entre positions défensives et offensives. C’est l’intelligence artificielle la plus agressive, la plus réactive, la plus dynamique et la plus crédible que j’ai observée à ce jour. »

Psibernetix est une start-up fondée et dirigée par Nick Ernest – diplômé en ingénierie et sciences appliquées de l’université de Cincinnati, appuyée par un panel d’experts en programmation-développement et en aéronautique issus de cette faculté, et bénéficiant d’un financement du Pentagone. Son produit phare nommé ALPHA est un outil de recherche dédié au contrôle d’avions sans pilote et aux opérations « MUM-T » (Manned Unmanned Teaming) associant automates intelligents et pilotes humains en simulation. Tel Mohammed Ali face à un poids plume, ALPHA a toujours surpassé les intelligences artificielles de l’US Air Force Research Lab… nettement plus abouties que votre meilleur jeu vidéo de combat aérien.

Face à un instructeur chevronné

Aux yeux de Gene Lee, cette IA n’est qu’un superbe délire de développeurs geek passablement abrutis par Top Gun, par Playstation/Xbox et par des compilateurs sur écran noir. Ce colonel à la retraite de l’USAF est diplômé de l’US Fighter Weapons School, a accumulé des centaines de missions réelles en tant que pilote ou coordinateur, exerce comme instructeur (Air Force Battle Manager & Adversary Tactics Instructor) depuis les années 90 et s’est également spécialisé dans la formation en simulateur. D’une certaine façon, Gene Lee est à ses cadets ce que Viper est à Maverick & Goose.

Il était donc le mieux placé pour en découdre avec le Terminatrix du ciel dans un exercice qui relève non pas du dogfight mais de l’interception aérienne à moyenne/longue distance : plusieurs escadrilles de chasseurs/bombardiers doivent détruire celles adverses et protéger des espaces/territoires spécifiques grâce à des tactiques, à des techniques et à des procédures, et ce, sur la base d’une multitude d’informations obtenues par leurs multiples radars et capteurs. Le pilote humain et son ennemi virtuel reçoivent exactement les mêmes données, de surcroît agrémentées de bruit aléatoire (parasites, défauts d’identification, etc) et de dysfonctionnements avioniques afin d’introduire une bonne dose de réalisme

.Après plusieurs engagements, l’instructeur chevronné a été incapable de venir à bout d’ALPHA, n’a jamais pu abattre un appareil ennemi, a perdu chaque avion sous son contrôle et toutes les escadrilles sous sa supervision… et est rentré chez lui « fatigué, épuisé et mentalement harassé. »

« J’ai été surpris par sa réactivité. ALPHA semblait être au courant de mes intentions et réagissait instantanément à mes changements de tactique et à mes déploiements de missiles. Elle savait comment défaire mes moindres tentatives. Elle se déplaçait instantanément entre positions défensives et offensives. […] C’est l’intelligence artificielle la plus agressive, la plus réactive, la plus dynamique et la plus crédible que j’ai observée à ce jour. »

Fort de sa combinaison d’algorithmes génétiques et de logique floue, ALPHA réagit à la milliseconde, élabore une stratégie de combat 250 fois plus vite qu’un humain, et, pour couronner le tout, est parfaitement opérationnelle sur un ordinateur de bureau (comme celui utilisé pour l’exercice) ou sur un minuscule processeur low-cost de type Raspberry Pi (à 30-40 euros/dollars). D’autres pilotes expérimentés se sont frottés à cette IA et ont subi le même sort que le colonel Lee.

N.B. : en quelques mots réducteurs et assassins, les algorithmes génétiques modélisent une « population de solutions » ensuite sélectionnées et recombinées selon un modèle évolutionniste jusqu’à fournir une solution adaptée. La logique floue délaisse le principe du vrai/faux et repose sur un éventail de règles évoluant entre « complètement vraies » et « complètement fausses », d’où plusieurs degrés de satisfaction d’une condition/proposition. Les premiers sont au cœur de l’informatique décisionnelle (business intelligence), de l’exploration de données (data mining), de l’animation 3D et du jeu vidéo ; la seconde est au cœur de la météorologie, de la sismologie, de la reconnaissance de formes, de l’aide au diagnostic, de la gestion de la circulation routière, du contrôle aérien, etc.

Pour peu qu’ALPHA se révèle très prometteuse, elle sera un atout-maître des futures configurations opérationnelles MUM-T associant machines pilotées (par des humains) et machines intelligentes (et autonomes) sur des théâtres d’opérations très réels, à l’image du récent couple hélicoptère Apache & drone Shadow. Toutefois, cette IA semble accessible (développement, acquisition, exploitation, mise à jour, coûts, logistique) à n’importe quelle grande ou petite puissance et fera certainement des émules européennes, chinoises, russes, japonaises, israéliennes, indiennes et consort. Du scénario de rattrapage technologique à la confrontation militaire, les ingénieurs militech et les états-majors seront d’autant plus pressés ou tentés de mettre cette technologie en œuvre et donc de concevoir/déployer des appareils plus performants car affranchis de leurs pilotes/opérateurs humains à la physiologie un peu trop limitée.

Plus besoin de cockpits, de pressurisation, de masque à oxygène, de combinaison anti-g, de sièges éjectables, de gilets de sauvetage… et encore moins de salaires ni de pensions de retraite. Des pilotes humains ? Quelle horreur !

En savoir + :

Sur le web

Voir les commentaires (5)

Laisser un commentaire

Créer un compte Tous les commentaires (5)
  • Une technologie efficace et peu onéreuse…ça va plaire à Daesh tout ça.

    • Et à tant d’autres! (peut-être pas trop à la famille Dassault!).

      • Avec Dassault on mesure la faillite du système qui attendait certainement des décisions de l’état et des subventions pour lancer un programme de drones qui aurait pu être auto-financé. Alors même pas la peine de parler d’IA. Etre obligé d’acheter ces drones ailleurs parce que les experts n’ont rien prévu c’est assez consternant.
        Qu’est ce qu’ils n’ont pas prévu encore ?

  • Pour information, Dassault a développé le démonstrateur Neuron :
    https://fr.wikipedia.org/wiki/Dassault_Neuron

  • Tiens, on dirait un article clicogène tout droit sorti d’outbrain. À force de vouloir faire du flux, c/pts ne risquerait-il pas de donner dans le nivellement par le bas ?

    En tous cas sur le fond, et au-delà du titre extraordinairement réducteur de cet article : l’us air force n’a pas été battue par une ia qui rendrait l’homme obsolète. C’est un colonel qui a perdu à un jeu vidéo. Un ia supérieure à un individu, rien de neuf sous le soleil. Et encore en dogfight, je demande à voir. C’est exactement par l’application de procédures non conformes que les grands pilotes se distinguent. Revoyez top gun ! Et pour ce qui est du jeu qui s’est déroulé avec ALPHA, je serais curieux de voir ce qu’il serait capable de faire dans les conditions d’un scénario de défense aérienne qui mobiliserait les trois dimensions et la capacité de plusieurs opérateurs humains à lui proposer des situations de surprise tactique.

    Enfin, sur le facteur humain : essayez donc de lancer un cyborg sur une plage normande au petit matin du 6 juin 1944. Ou demandez lui de tenir la défense de Pearl Harbor le 7 décembre 1941. Ce qu’ont fait les Alliés en 44 et les Japonais en 41 relevaient dans les deux cas de décisions irrationnelles bien que finement préparées. Allez donc programmer un bousin pour faire tourner ça !

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Il faut sauver la liberté d’expression, comme nous l’avions évoqué, face à la prolifération des deepfakes en évoquant, avec le Dr Sylvie Blanco, Professor Senior Technology Innovation Management à Grenoble École de Management (GEM)  « le paradoxe du ChatBlanc » (cf. « Autopiégés par les deepfakes : où sont les bugs ? » Contrepoints, 11 février 2024 ) pris de vitesse, nous voilà mis devant ce terrible paradoxe : « réclamer en tant que citoyens la censure temporelle des hypertrucages pour préserver la liberté de penser et la liberté d’expressio... Poursuivre la lecture

1
Sauvegarder cet article

OpenAI, avec sa vision d'une IA géante et coûteuse, se retrouve face à des concurrents proposant des IA plus économiques.

OpenAI persiste et signe, pour le futur il faut une IA encore plus grosse que chatGPT-4. Son CEO, Sam Altman, réclame donc 50 milliards de dollars par an, après avoir déjà englouti 11 milliards dont 700 000 dollars par jour rien que pour les coûts des serveurs.

Le pape de l’IA est surtout de plus en plus seul dans sa vision d’IA gigantesque et coûteuse. La startup française Mistral a marqué le début d’une aut... Poursuivre la lecture

À quand des questions sur la recherche européenne dans les médias ? À quelques jours des élections européennes, les débats sur la recherche et l’innovation sont inexistants ! Il s’agit pourtant des fondamentaux européens. Dès 1972, la commission européenne a cherché à définir et à mettre en place une politique de recherche communautaire. Où en sommes-nous en 2024 ?

 

Des moyens et des résultats limités

Pourquoi la recherche est-elle absente des débats sur l’Europe, alors que partout ailleurs on parle des défis en matière d’... Poursuivre la lecture

Voir plus d'articles