Les signaux faibles anticipent assez mal l’avenir

Sans hypothèse, impossible d’extraire les signaux faibles pertinents de la masse d’information sous laquelle cet officier est noyé tous les jours.

Par Philippe Silberzahn.

Dans un article précédant, j’évoquais les limites des scénarios pour anticiper l’avenir. Regardons cette fois une autre approche, celle des signaux faibles, très en vogue mais dont les limites sont également très fortes.

L’idée des signaux faibles est qu’un événement est toujours annoncé par des informations qui nous permettent de l’anticiper. Si nous repérons ces signaux et si nous sommes capables de les interpréter correctement, nous pouvons anticiper l’événement.

C’est ainsi que la police surveille les achats d’engrais car ceux-ci contiennent du nitrate, utilisé pour faire des bombes. Dans un autre domaine, certaines marques de cosmétique envoient des chefs de produits dans les lieux branchés pour y déceler les futures tendances de la mode.

Tromper l’adversaire

L’exercice est utile mais a ses limites. D’abord, les signaux faibles peuvent être utilisés pour tromper l’adversaire. Ben Laden était ainsi connu pour faire circuler de nombreuses rumeurs d’attentats pour épuiser les services occidentaux. À trop être sensible aux signaux faibles, on sur-réagit.

Ensuite, leur utilité décroît rapidement. Si les terroristes savent que la police surveille les achats d’engrais, ce qui finit forcément par arriver, ils trouveront d’autres moyens pour commettre leurs attentats (un massacre avec de simples Kalachnikov par exemple).

S’ensuit un jeu du chat et de la souris où les terroristes ont toujours l’initiative et où les signaux intéressants d’hier sont, au mieux, inutiles, au pire, trompeurs (une absence d’achat d’engrais peut faire croire à la fin des attentats).

Comment interpréter les signaux faibles ?

Mais la limite principale des signaux faibles n’est pas là. Elle réside dans leur interprétation. Deux mois avant les attentats du 11 septembre 2001, un agent du FBI, la police fédérale américaine, basé en Arizona, alertait son siège que plusieurs individus originaires du Moyen-Orient s’entraînaient dans une école d’aviation et recommandait une enquête nationale.

En effet, ceux-ci ne souhaitaient ni apprendre à décoller, ni à atterrir, ce qui est étrange convenons-en ! Voilà un exemple typique de signal faible. Et pourtant personne ne s’en est inquiété, et après l’attentat, cela a suscité une polémique importante sur l’incompétence supposée des services de police et de renseignement. Et pourtant l’inaction s’explique.

D’une part, le propriétaire de l’école de pilotage a déclaré plus tard qu’il avait de nombreux clients fortunés qui souhaitaient juste pouvoir s’amuser en prenant les commandes de leur jet privé quelques minutes pendant le vol sans pour autant faire l’effort d’apprendre à atterrir ou décoller.

D’autre part, le travail d’un officier du FBI consiste précisément à être témoin de choses bizarres toute la journée ; il doit donc choisir celles qu’il poursuit et celles qu’il doit laisser tomber faute de temps car il ne peut pas tout traiter.

Une chose bizarre en chasse une autre. L’officier a donc rempli son rapport et l’a passé à son supérieur qui a estimé qu’il y avait plus urgent et plus important à traiter (trafic de drogue, attaque de banque, violences) que des élèves pilotes ne souhaitant pas apprendre à décoller ou atterrir.

Le rôle des hypothèses

Évidemment, après coup, il est assez facile de critiquer cette décision, mais avant, dans le « brouillard de l’action », lorsqu’il est face à des dizaines d’affaires potentielles, impliquant des meurtres, des trafics, des violences etc., on peut comprendre que l’officier doive faire un choix.

La question qui se pose est celle de savoir sur quelle base ces choix sont faits. Sur cette question, la chercheuse américaine Roberta Wohlstetter apporte un éclairage intéressant.

Dans ses travaux pionniers sur l’attaque surprise de la base américaine de Pearl Harbor par les japonais le 7 décembre 1941, elle a montré que cet échec ne pouvait pas être mis sur le compte d’un manque d’attention aux signaux faibles. En effet, la marine américaine avait déchiffré les codes de la marine japonaise.

L’hypothèse absurde

Elle disposait donc de signaux massifs sous la forme de conversations des amiraux japonais. Mais elle trouvait l’hypothèse d’une attaque de Pearl Harbor tellement absurde qu’elle a refusé de l’envisager.

Un exercice sur ce thème au printemps 1941 a même été refusé. Même si cela a alimenté les théories conspirationnistes depuis, lorsqu’on regarde une carte, on voit combien l’entreprise japonaise était folle : Pearl Harbour se trouve en effet à plus de 6.300 kilomètres du Japon et lancer une armada aussi loin de ses bases amenait à l’extrême limite du faisable les technologies dont disposait à l’époque les japonais. Objectivement c’est une folie.

La marine américaine base donc son refus d’envisager une telle attaque sur deux hypothèses fortes qui semblent tout à fait raisonnables à l’époque : d’une part sur l’impossibilité technique, et d’autre part sur le fait qu’il semble suicidaire qu’un petit pays comme le Japon se sente capable d’attaquer un pays aussi puissant que les États-Unis.

Le problème, c’est l’hypothèse

Les signaux faibles sont donc triés et interprétés sur la base d’hypothèses que l’on développe quant au système étudié. Les Américains projettent leur rationalité sur les Japonais alors qu’en fait ces derniers ne se rendent pas du tout compte qu’ils sont en train de réveiller un géant. La surprise n’est donc pas un problème de signaux faibles, mais d’hypothèses. C’est parce que leurs hypothèses sont fausses que les Américains sont surpris.

Il en va de même pour l’école de pilotage du 11 septembre. Si le FBI avait communiqué à ses agents qu’il soupçonnait une attaque impliquant des avions de ligne, modifiant ainsi son hypothèse de travail, l’officier rapportant un comportement étrange dans une école de pilotage aurait sûrement été écouté avec attention. Mais sans hypothèse, impossible d’extraire les signaux faibles pertinents de la masse d’information sous laquelle cet officier est noyé tous les jours. Et avec le big data qui vomit continuellement ses montagnes de données, ça ne s’améliore pas avec le temps.

Le point d’Archimède

Nous interprétons donc le monde à partir d’hypothèses (mais aussi de croyances et de valeurs) et ce sont elles qui guident notre travail de compréhension du monde. Le spécialiste de la connaissance Haridimos Tsoukas écrit ainsi : « Comprendre présuppose l’existence d’un point d’Archimède, un point de vue à partir duquel le monde peut être considéré, pris en compte, et interprété. »

Les hypothèses fournissent précisément ce point d’Archimède. Peter Drucker, l’un des plus grands auteurs en management, écrivait ainsi : « Les dirigeants qui prennent des décisions efficaces savent qu’on ne commence pas par les faits. On commence par des hypothèses… Commencer avec les faits est impossible. Il n’y a pas de fait à moins que l’on ait un critère de pertinence. »

On ne peut donc distinguer les signaux utiles du bruit qu’au moyen d’hypothèses, et celles-ci doivent être explicitées et rediscutées régulièrement à la lumière de faits nouveaux.

Sans hypothèse pour faire le tri, nous n’avons qu’un immense tas de données dont nous ne savons que faire, ou pire, dont nous pouvons faire ce que nous voulons. Au final, et malgré l’intérêt théorique de la notion de signal faible, sa portée pratique reste limitée et son utilisation risquée tant la quantité d’information avant l’événement est grande de nos jours.

Cet article est un extrait adapté de mon ouvrage Bienvenue en incertitude ! 

Sur le web