Le Big data ne doit pas occulter notre responsabilité

Comment ne pas tomber dans les pièges du big data ? Il faut garder à l’esprit que les données doivent éclairer notre jugement, pas le remplacer.

Partager sur:
Sauvegarder cet article
Aimer cet article 0

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Le Big data ne doit pas occulter notre responsabilité

Publié le 23 janvier 2017
- A +

Par Olivier Sibony.

big data
Big Data – Crédit : ALi (tous droits réservés)

Dans les deux premiers articles de cette série sur le Big Data, j’ai montré que le big data risque d’être une machine à inventer des liens de causalité imaginaires, qu’il est souvent une « boîte noire », et que sa fausse neutralité peut nous faire commettre de graves erreurs. HBR et TechCrunch, entre autres, ont publié depuis des articles qui se font l’écho des mêmes préoccupations.

Mais bien sûr, on ne va pas renoncer aux données ! Le potentiel de création de valeur est énorme : ceux qui en doutent peuvent lire l’épais rapport du McKinsey Global Institute sur la question.

Surtout, même si les données ont des défauts, la décision « au feeling » en a… bien plus ! On n’a pas attendu le big data pour savoir que les décisions humaines sont hautement faillibles, et que les données permettent de les améliorer… même quand elles sont en petit nombre. C’est ce qu’on pourrait appeler le « small data ».

Small data 1, humains 0

Dès les années 1950, Paul Meehl montrait que dans un grand nombre de cas, un algorithme simple et robuste utilisé pour faire une « prédiction statistique » donne de meilleurs résultats que les « prédictions cliniques » des experts. Qu’il s’agisse de psychiatres, de conseillers d’orientation, de juges décidant de mise en liberté conditionnelle, ou d’innombrables autres exemples, l’intuition et l’expertise sont moins efficaces que nous ne le pensons.

Surtout, l’expertise est généralement moins efficace que l’utilisation de quelques critères simples. Comme le résume Daniel Kahneman dans Thinking, Fast and Slow :

« Environ 60% des études ont montré une meilleure performance pour l’algorithme. Les autres sont un match nul, mais un match nul doit être considéré comme une victoire pour les méthodes statistiques, puisqu’elles sont bien moins coûteuses à utiliser. Aucune exception n’a été démontrée de manière convaincante. »  

Il est frappant de constater qu’à peu près personne ne tire les conséquences de ces études et que le constat de Meehl suscite toujours autant de controverses : quelles que soient les preuves, nous continuons à y résister de toutes nos forces.

Par exemple, Orley Ashenfelter, un économiste de Princeton a proposé un modèle pour prédire les cours futurs des vins de Bordeaux, avec trois variables seulement : la température moyenne de la saison, la pluviométrie de l’hiver, et celle des vendanges. Personne ne l’a pris au sérieux… jusqu’à ce que son modèle démontre qu’il prévoyait mieux la qualité des futurs vins que les experts ! Et je n’ai toujours pas rencontré un seul professionnel des ressources humaines qui soit prêt à renoncer aux entretiens de recrutement. D’ailleurs, je n’y renoncerais pas non plus…

Le déni du small data

Pourquoi refusons-nous d’utiliser des modèles simples à la place de notre intuition ? Et pourquoi, dans le même temps, acceptons-nous d’utiliser des modèles de big data complexes et mystérieux ?

La raison est… humaine ! Accepter qu’un modèle simple et compréhensible fasse mieux que nous, les « experts », c’est se regarder sans fard dans le miroir et constater la médiocrité du jugement humain. Or nous ne sommes pas prêts à l’accepter (surtout si c’est le jugement en question, c’est le nôtre).

On objectera que nous déléguons déjà beaucoup de décisions à des machines : personne ne s’offusque qu’un avion de ligne soit sous le contrôle d’un pilote automatique ; et nous roulerons tous bientôt dans des voitures autonomes. Mais dans ces cas, la machine promet d’être « infaillible » (et reste, en théorie, sous supervision humaine).

Là est la grande différence avec les modèles simples de « small data » : même si, comme le rappelle Daniel Kahneman, ils sont supérieurs aux experts, c’est une supériorité relative. Et nous ne sommes pas prêts à nous en contenter.

Paradoxe du big data : plus c’est incompréhensible, plus on fait confiance

Exemple : supposez que vous puissiez savoir avec précision que le chasseur de têtes à qui vous confiez un recrutement a un excellent jugement dans 75% des cas. Vous le considèreriez comme un grand professionnel ! Accepteriez-vous de le remplacer par une machine, si on vous disait que la machine se trompera une fois sur cinq ? Sans doute pas.

Nous acceptons que l’erreur soit humaine, mais s’il s’agit de la machine, nous attendons l’apparence de la perfection. Quand le pilote automatique, présenté comme fiable à 100%, remplace un humain fiable à 99%, nous applaudissons. Mais si un algorithme réduit le nombre d’erreurs d’un cinquième sans pour autant le ramener à zéro, nous n’en voulons pas.

Ce « deux poids, deux mesures » explique le paradoxe de l’utilisation des données : si nous nous jetons dans les bras de modèles « big data » auxquels nous ne comprenons rien, ce n’est pas en dépit de leur opacité, mais à cause de celle-ci. Quand nous évaluons les algorithmes de Meehl — comme la formule d’Ashenfelter pour prévoir la valeur des vins –, nous les comparons à notre propre intuition : ce sont des rivaux dont nous minimisons les talents. Mais quand on parle de big data, d’intelligence artificielle, voire de « machine learning », il n’est plus question de comparaison : on ne boxe plus dans la même catégorie ! De même qu’un champion d’échecs reste un grand champion même s’il existe des superordinateurs qui jouent mieux que lui, un manager qui utilise du « big data » reste un expert à ses propres yeux.

En d’autres termes, si Ashenfelter n’avait pas proposé d’additionner trois chiffres, mais construit un modèle nimbé de mystère et enrobé de buzzwords à la mode, les professionnels du vin ne lui auraient sans doute pas ri au nez. Plus les ordinateurs sont puissants, plus les bases de données sont gigantesques, plus les algorithmes sont incompréhensibles, et plus il sera facile de considérer que notre honneur d’experts est sauf.

Mieux que l’intelligence artificielle : la vôtre

Alors, comment ne pas tomber dans les pièges du big data ? En se souvenant de deux principes que nous enseigne l’utilisation du « small data ».

Le premier est simple : faites l’effort d’ouvrir la « boîte noire » ! Il n’y a aucune raison de ne pas comprendre les critères qu’elle utilise et la logique qu’elle applique. Si l’on vous assure qu’on utilise des méthodes mathématiques si avancées qu’il est impossible de vous expliquer leur fonctionnement, méfiez-vous…

Et surtout : si l’utilisation du « big data » vous conduit à des décisions qui vous surprennent, demandez-vous si vous seriez capable de les justifier. Pourriez-vous, par exemple, expliquer de manière convaincante à une personne dont la machine a rejeté la candidature sur la base de quels critères cette décision a été prise ? Car, machine ou pas, la responsabilité de la décision reste entre vos mains.

C’est au fond une idée simple que la pensée magique autour du Big Data finit par nous faire parfois perdre de vue : qu’elles soient « big » ou « small », les données doivent éclairer le jugement du manager, pas le remplacer. Et encore moins le dédouaner de ses responsabilités.

Retrouvez les deux premiers articles de cette série :

Sur le web

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

L’intelligence artificielle déchaîne les passions depuis plusieurs décennies et la maturité de certains algorithmes en vient à relancer le débat sur leur utilisation et leur effet disruptif sur les métiers d’aujourd’hui. De nombreux experts craignent à juste titre une dépossession du libre arbitre des humains au profit de l’intelligence artificielle, a fortiori lorsque le point de singularité technologique sera atteint.

Néanmoins, si cette prospective est tout à fait plausible, c’est aussi en raison de l’engouement persistant par les d... Poursuivre la lecture

En raison du caractère auto-optimisant des systèmes d'apprentissage automatique, la technologie progresse à un rythme effréné et les fonctionnalités et capacités des moteurs d'IA spécifiques au marketing ont évolué rapidement au cours des dernières années.

 

Qu'est-ce que l'intelligence artificielle ?

L'intelligence artificielle (IA) est une science qui porte sur le développement de machines intelligentes capables d'effectuer des tâches sollicitant l'intelligence humaine.

Elle fonctionne en amalgamant une multitude d... Poursuivre la lecture

C’est dans un contexte de tensions géopolitiques grandissantes où cybermenaces et cyberattaques constituent désormais des outils de guerre comme les autres, que le jeudi 10 novembre le Parlement européen a voté en faveur de l’adoption de la nouvelle directive « Network and Information Security » ou « NIS2 ».

Adoptée, NIS2 abrogera et remplacera la directive NIS de 2016 en s’inscrivant pleinement dans le programme d’action numérique de l’UE à l’horizon 2030.

Et pour cause, de nombreux événements ont récemment accéléré la nécessit... Poursuivre la lecture

Voir plus d'articles