Pourquoi le Big Data ne rend pas les organisations plus intelligentes : le cas de Cuba

Ce qui compte n’est pas tant de collecter en abondance des données, mais de questionner les hypothèses qui servent à interroger ces données.

Par Philippe Silberzahn.

Big Data CC infocux Technologies

Dans les premières heures du 16 octobre 1962, le président Kennedy fut informé que l’Union soviétique avait installé secrètement des missiles balistiques à Cuba. Ce fut le début d’une crise qui a amené le monde au bord de la guerre nucléaire et résonne encore dans la politique américaine aujourd’hui. Pourtant, Sherman Kent, père fondateur de la branche analytique de la CIA, avait à plusieurs reprises rejeté la possibilité d’une telle action par les Soviétiques. Ce matin-là, alors qu’il quittait le bureau du directeur de la CIA, il admit, dans un langage coloré caractéristique : « Je viens d’être nommé membre fondateur du club des couillons ».

Comment la CIA – un service spécialement créé en 1947 pour éviter un autre « Pearl Harbour » – a-t-elle été prise au dépourvu par une opération logistique massive qui s’est déroulée pendant dix mois à moins de 250 km du sol américain en dépit de ses immenses capacités de collecte de données ? En bref, comment ces événements sont-ils devenus la crise des missiles de Cuba ?

La quantité de données dont la CIA disposait était réellement massive. Alors que l’opération prenait de l’ampleur, de nouvelles données ont été accumulées, les témoignages visuels affluaient qui décrivaient d’énormes camions transportant des objets cylindriques très longs (!), camions qui étaient tellement grands qu’ils écrasaient un peu tout sur leur passage sur les petites routes de Cuba.

Il y a plus : grâce à un informateur au sein du ministère cubain de la défense, la CIA connaissait les réquisitions de viande militaires de l’île presque en temps réel. À l’automne, cette quantité s’élevait à 13 tonnes de viande par jour. Elle savait également que les Soviétiques en utilisaient environ 340g par jour et par homme. Il était facile d’en déduire que les Soviétiques avaient environ quarante mille hommes à Cuba, une indication sûre qu’une opération massive était en cours. Qu’est-ce que la CIA a fait de cette information ? Rien. La raison ? Le chiffre a été jugé impossible et l’informateur peu fiable parce que l’hypothèse selon laquelle « les Soviétiques n’installeront jamais de missiles nucléaires à Cuba » a prévalu.

Les « big data » de la CIA de l’époque n’étaient d’aucune utilité parce que tout ce qu’il apportait a été rejeté par la poursuite de la mauvaise hypothèse. Il a fallu attendre que l’avion espion U2 survole Cuba pour apporter la preuve irréfutable que cette hypothèse était dramatiquement erronée.

Ce que la crise de Cuba montre, c’est que les surprises stratégiques ne viennent le plus souvent pas d’un manque de données, mais d’une incapacité à remettre en question les hypothèses qui servent à interroger ces données. Comme Peter Drucker le remarquait : « Les dirigeants qui prennent des décisions efficaces savent que l’on ne commence pas avec les faits. On commence avec des opinions… Commencer par les faits, c’est impossible. Il n’y a pas de faits si on n’a pas un critère de pertinence. »

Le big data n’est pas inutile, mais il ne peut donner sa pleine mesure qu’accompagné d’un vrai travail sur ces hypothèses, qui consiste par exemple à les expliciter et à mettre en œuvre des mécanismes pour les remettre en question explicitement, de manière régulière.


Sur le web.