Le nouvel algorithme de la Banque Centrale Américaine

Les récentes communications de la Banque Centrale révèlent une étonnante analogie avec l’algorithme en vogue de l’intelligence artificielle : les réseaux antagonistes génératifs.

Partager sur:
Sauvegarder cet article
Aimer cet article 0
Source https://unsplash.com/photos/FXFz-sW0uwo

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Le nouvel algorithme de la Banque Centrale Américaine

Publié le 30 mai 2019
- A +

Par Karl Eychenne.

Comment faire en sorte de prévoir la suite d’un film à l’aide d’une image ? Bien difficile a priori.

En langage économique, cette question peut se formuler de la façon suivante : comment prévoir la croissance à venir à partir de l’état actuel de l’économie ?

L’intelligence artificielle et son bras armé le Machine Learning propose de séparer le problème en 2 algorithmes :

  • Un premier algorithme, le générateur ici joué par la Banque Centrale, propose plusieurs scénarios possibles plus ou moins réalistes de manière aléatoire au départ ; l’objectif final de la Banque Centrale est de proposer des scénarios les plus réalistes possibles.

 

  • Un deuxième algorithme, le discriminateur ici joué par le marché, essaie de détecter si les scénarios proposés par le premier algorithme sont vraisemblables ; l’objectif final du marché est de savoir distinguer les faux scénarios des vrais proposés par la Banque Centrale.

Nous voilà donc plongés en pleine théorie des jeux, où la Banque Centrale et le marché se font concurrence, affinant progressivement leur jugement jusqu’à ce que l’un et l’autre se mettent d’accord sur le scénario le plus vraisemblable. Remarquons qu’il ne s’agit pas forcement du bon scénario mais seulement de celui qui rassemble le plus de suffrages.

La Banque Centrale aura tout essayé

Une Banque Centrale a un métier ingrat : elle doit juste veiller à ce que la croissance économique ne génère pas de tensions ou de baisses indésirables des prix. Un métier qu’elle n’arrive même plus à assurer : l’évolution des prix reste trop timorée par rapport au rythme de la croissance économique :

 

  • Côté croissance, pas de problèmes : le PIB a rattrapé le retard qu’il avait accumulé par rapport à son PIB potentiel suite à la crise de 2008 ; désormais il croît à un rythme proche de 2,5 à 3 %. Dans la même veine, le taux de chômage est au plus bas depuis 50 ans, à près de 3,6 %, largement en dessous de son niveau dit neutre de 4,5 % (NAIRU), un niveau capable d’absorber toutes les embauches sans générer de tensions sur les salaires.

 

  • Côté prix, là sont les problèmes : il y a de l’inflation certes, mais bien trop peu par rapport à ce qui pouvait être escompté, qu’il s’agisse des salaires, des prix des biens ou des services. Dans le monde d’avant, l’inflation américaine évoluerait autour de 5 % depuis bien longtemps. Aujourd’hui, elle peine à atteindre durablement la cible de 2 % de la Banque Centrale.

 

Est-ce à dire que les politiques monétaires sont trop restrictives, comme le suggère Donald Trump ? A priori non, puisque les taux d’intérêt directeurs aujourd’hui à 2,5 % sont inférieurs à ceux définis par des règles de politiques monétaires traditionnelles. Par exemple, sur 25 variantes de règles proposées par la Banque Centrale D’Atlanta, 22 justifieraient des taux plus hauts.

La Banque Centrale américaine a même essayé des politiques dites non-conventionnelles combinant le quantitatif (créations de liquidités) et le qualitatif (forward guidance). Pour quel résultat ? Des surplus ponctuels de croissance, et surtout toujours trop peu d’inflation (effet Casimir). Pire encore, il y aurait des effets secondaires sur les marchés financiers : oui, l’inflation serait enfin de retour, mais sur les prix des actifs (Tunique de Nessus).

Une nouvelle stratégie ?

Terminé les politiques traditionnelles ou non-conventionnelles. Puisque ce qui a été essayé n’a pas produit les résultats escomptés, il faut changer… mais pour quelle nouvelle stratégie ? Trois indices nous ont été livrés au cours des semaines passées par la Banque Centrale américaine :

 

  • Indice 1 : « La baisse de l’inflation est transitoire». Jerome Powell, président de la Banque Centrale, a déboussolé les marchés financiers le 2 mai, à la suite du comité de politique monétaire. Une semaine auparavant il avait dit le contraire en annonçant que la baisse de l’inflation était plutôt tendancielle et constituait une menace durable pour l’économie.

 

  • Indice 2 : les anticipations impressionnistes de la Banque Centrale. Ce même Jerome Powell a mis en garde les marchés contre une interprétation trop brute, trop synthétique, des seules anticipations chiffrées communiquées (Dot. Plots). Pour ce faire, il a usé de la métaphore de marchés incapables de voir au-delà du seul bouquet de fleurs à peine décelable dans le tableau de Georges Seurat’s « Un dimanche après-midi à l’Île de la Grande Jatte ».

 

  • Indice 3 : la logique intuitionniste. « L’inflation n’est pas satisfaisante, mais cela ne veut pas dire qu’elle est insatisfaisante ». Jerome Powell n’a certes jamais dit cela. Mais à ne pas vouloir appeler un chat un chat, les communiqués successifs de la Banque Centrale américaine laissent penser que tout est possible, même son contraire. En fait, ce serait au marché de décider quelle est la thèse qu’il trouve la plus vraisemblable.

 

Que nous révèlent ces 3 indices mis bout à bout ? À première vue, ils ressemblent à de la communication maladroite. Mais si l’on tente de leur donner un sens, ils peuvent aussi être assimilés à des tentatives de la Banque Centrale de sonder les marchés, les tester, leur tirer les vers du nez afin de voir de quel côté ils penchent. En fait, cette stratégie est vieille comme le monde, c’est celle du pêcheur qui envoie des appâts et attend de voir si le poisson mord à l’hameçon. Ici, le pêcheur est la Banque Centrale, l’appât est la communication de la Banque Centrale, et le poisson le marché.

L’étonnante analogie avec l’intelligence artificielle

Jusqu’à présent, la stratégie suivie par les autorités monétaires s’apparentait à un algorithme de classification d’apprentissage supervisé utilisé en informatique et en intelligence artificielle :

 

  • En effet, la politique monétaire consistait à identifier l’état du cycle économique en cours à partir des seules données économiques et financières à disposition. Par exemple, si le PIB et l’inflation étaient supérieurs à leur niveau cible, cela voulait dire qu’il y avait surchauffe de l’économie. La montée en puissance du Big Data devait même à terme permettre à la Banque Centrale d’avoir une lecture quasi-continue de la santé de l’économie américaine ; un peu comme ces montres connectées qui vous renseignent sur vos paramètres de santé.

 

  • En informatique, cette stratégie consiste à classer des images par catégories : aujourd’hui, la technique dite de l’apprentissage profond (Yann Le Cun) est particulièrement adaptée pour cela. Cette technique fonctionne très bien pour l’imagerie médicale ou la reconnaissance faciale.

Mais désormais la stratégie suivie par la Banque Centrale ressemble davantage à celle de l’algorithme en vogue, celui des réseaux antagonistes génératifs, apprentissage non supervisé :

 

  • Imaginons que la Banque Centrale propose des anticipations de hausses de taux plus fortes que prévues dans ses Plots, mais que ces anticipations soient accompagnées d’une communication plus accommodante que prévue. Il s’agit alors de deux scénarios différents proposés, et la plus grande vraisemblance attribuée à l’un ou l’autre de ces scénarios sera alors renseignée par la réaction des marchés. Par exemple si les marchés sont davantage surpris par les anticipations de hausses des taux que par le communiqué accommodant, c’est qu’ils pensaient que la Banque Centrale avait une lecture plus prudente du cycle économique.

 

  • En langage informatique, cette stratégie consiste non plus à considérer un flux d’images fixes à classer ; mais à imaginer deux acteurs dont l’un (le générateur) envoie des images réelles ou pas à l’autre (discriminateur), et ce dernier cherche alors à différencier le vrai du faux. Les deux acteurs se renvoient la balle à chaque fois, affinant leurs paramètres progressivement, jusqu’à converger vers une image qu’ils considèrent comme la plus vraisemblable.

Ainsi, la Banque Centrale américaine ne se résoudrait donc plus à classer des images en supposant qu’elle dispose du bon étiquetage : expansion économique, récession… Mais à proposer des images, réelles ou pas, au marché, qui, lui, reviendrait alors sur la vraisemblance de ces images.

Conclusion : et pourquoi pas AlphaGo ?

Pourquoi la Banque Centrale n’utilise-t-elle pas AlphaGo, le programme qui avait battu le meilleur joueur de Go en 2017 ? Parce que l’algorithme utilisé suppose quelque chose que ne peut pas supposer la Banque Centrale : la connaissance des règles du jeu. Si la machine a pu battre le meilleur joueur du monde, c’est parce qu’on lui a donné les règles et qu’elle alors pu imaginer un nombre très important de mondes possibles. Mais dans la vraie vie, les règles qui façonnent le monde et orientent nos choix sont mouvantes, et le nombre de mondes possibles devient alors infini.

Voir les commentaires (3)

Laisser un commentaire

Créer un compte Tous les commentaires (3)
  • Si je comprends bien, l’IA réinvente ce que pratiquait déjà l’homme de Cro-Magnon: l’adaptation à l’environnement par itération du cycle essais-erreurs.

    • « Parce que l’algorithme utilisé suppose quelque chose que ne peut pas supposer la Banque Centrale : la connaissance des règles du jeu »

      Inutile de connaitre les règles du jeu pour fabriquer un GAN.
      Surtout dans le cadre de l’économie, il suffirait juste d’un layer de neurone d’entrée très large pour y entrer toutes les variables eco.
      C’est un problème qui convient très bien pour de l’apprentissage non supervisé.

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Ce vendredi 2 février, les États membres ont unanimement approuvé le AI Act ou Loi sur l’IA, après une procédure longue et mouvementée. En tant que tout premier cadre législatif international et contraignant sur l’IA, le texte fait beaucoup parler de lui.

La commercialisation de l’IA générative a apporté son lot d’inquiétudes, notamment en matière d’atteintes aux droits fondamentaux.

Ainsi, une course à la règlementation de l’IA, dont l’issue pourrait réajuster certains rapports de force, fait rage. Parfois critiquée pour son ap... Poursuivre la lecture

Voilà maintenant quatre ans que le Royaume-Uni a officiellement quitté l'Union européenne. Depuis le Brexit, la Grande-Bretagne a connu trois Premiers ministres, et d'innombrables crises gouvernementales. Néanmoins, malgré le chaos de Westminster, nous pouvons déjà constater à quel point les régulateurs du Royaume-Uni et de l'Union européenne perçoivent différemment l'industrie technologique. Le Royaume-Uni est un pays mitigé, avec quelques signes encourageants qui émergent pour les amateurs de liberté et d'innovation. L'Union européenne, qua... Poursuivre la lecture

Année après année, mesure après mesure, étape par étape, technologie après technologie, le fisc augmente son pouvoir, sa surface de jeu, et son « efficacité » de collecte pour l’État, toujours en manque d’argent.

 

Le prélèvement à la source de l'impôt sur le revenu

Souvenons-nous du prélèvement automatique des impôts sur le revenu, une mission dont l’ambitieux Gérald Darmannin s’est brillamment acquitté, confortant ainsi l’État dans son assurance d’être payé, dans le coût de sa collecte (maintenant déléguée aux employeurs qu’... Poursuivre la lecture

Voir plus d'articles