Aurélie Jean : ne pas faire de l’algorithme le bouc émissaire

Un entretien avec Aurélie Jean, auteure du nouvel essai « Les algorithmes font-ils la loi ? » paru aux éditions de l’Observatoire (octobre 2021).

Les ganacheries tombant aussi aisément au sujet des algorithmes qu’à Gravelotte, trouver une nourriture de l’esprit équilibrée et éclairante relève de la tâche pascalienne. Aurélie Jean est de celle-ci. Mêlant pédagogie et nuance, elle fait entendre sa voix et ses messages aux quatre coins du globe, seule échelle à la mesure de cette globetrotteuse hyperactive.

À l’occasion de la sortie de son dernier ouvrage, Les algorithmes font-ils la loi ?, aux éditions de l’Observatoire, Aurélie Jean a répondu aux questions de Corentin Luce.

Aurélie Jean est scientifique numéricienne, entrepreneuse mais aussi chercheuse. Elle a fondé In Silico Veritas, une société de conseil stratégique en data et en algorithmique basée aux USA et en France, et plus récemment une deep tech startup DPEEX dans le domaine de l’IA appliquée au cancer du sein. Contributrice à l’hebdomadaire Le Point, elle a aussi fait paraître plusieurs ouvrages, le dernier étant Les algorithmes font-ils la loi ?

En 2019, le magazine Forbes l’a classée parmi les 40 Françaises les plus influentes de l’année.

 

Corentin Luce : Comment expliquez-vous le paradoxe latent développé dans votre livre : en l’absence d’une personnalité juridique et d’une volonté individuelle propre, les algorithmes ne peuvent faire la loi et pourtant, un sentiment latent d’impuissance prospère…

Aurélie Jean : Cela vient de l’incompréhension des citoyens et des dirigeants politiques de cette discipline relativement complexe et profondément intangible. À défaut de capturer les tenants et les aboutissants des mécanismes algorithmiques à l’origine des nombreux scandales de ces quatre dernières années (mauvaise conception, mauvaise collecte de données, tests non réalisés…), on se tourne vers un bouc-émissaire qu’est l’algorithme lui-même.

Est-il exact de dire que les algorithmes ne font pas la loi mais règnent ?

Les algorithmes ne font pas strictement la loi, nous avons un libre arbitre évident dans nos vies. Ils n’interviennent pas dans toutes les décisions qui nous concernent. Cela étant dit, ils orientent parfois maladroitement ou dangereusement nos comportements, en particulier sur les réseaux sociaux.

Les risques pour la démocratie, pour la santé du débat public ou encore l’addiction à ces outils font partie des menaces évidentes de ces outils dont les algorithmes attirent et retiennent l’attention des utilisateurs, ou encore renforcent la visibilité des contenus polémiques, transgressifs et haineux.

Vous semblez opter pour la notion d’encadrement, davantage que la régulation. Quelle est la différence entre ces deux termes ?

J’opte pour une régulation de cette discipline à travers non pas la régulation des algorithmes car cela est tout simplement impossible – les algorithmes ne pouvant pas être évalués entièrement – mais à travers un encadrement et une régulation sur les pratiques de conception, de développement, de tests et d’usage de ces algorithmes.

Il y a deux leviers sur lesquels il est possible d’agir pour concrétiser cet encadrement : la manière dont les algorithmes sont conçus et leur utilisation. Comment cela pourrait se traduire sur le plan juridique ?

Chaque acteur technologique devrait être dans l’obligation de construire et d’appliquer des bonnes pratiques de conception, de développement technique, et de tests de ses algorithmes pour assurer ce qu’on nomme la fairness en anglais – ce qui pourrait se traduire comme justesse en francais – et donc écarter le risque de discrimination technologique et d’erreurs pouvant mener à des conséquences graves sur les individus.

En cas de scandale, un audit des pratiques de l’entreprise permettrait de confirmer la mise en place (ou pas) d’une bonne gouvernance algorithmique et donc le niveau de conformité de l’acteur. Expliciter les bonnes pratiques dans la loi serait une erreur car les lois doivent être souples et durables. Les pratiques algorithmiques évolueront dans le futur en étroit lien avec l’arrivée de nouveaux types d’algorithmes.

L’effet bulle plane tout au long de votre ouvrage, comment pouvez-vous le décrire et pour quelles conséquences ?

L’effet bulle, théorisé par Eli Pariser, est un effet d’enfermement des utilisateurs d’un réseau social dans une bulle d’opinion et d’observation. Un réseau social comme Twitter par exemple possède des algorithmes dont l’algorithme de suggestion de contenu qui va suggérer des posts à l’utilisateur en fonction de son profil. Pour cela un autre algorithme dit de catégorisation va classer/catégoriser les utilisateurs en fonction de leur profil statique (localisation, nombre de followers…) et dynamique (les types de posts qu’ils aiment, le type de commentaires qu’ils écrivent…).

L’idée est ensuite de proposer à un utilisateur d’une classe, un contenu qu’une autre personne de cette même classe – et donc qui lui ressemble – a aimé. Avec en théorie l’idée que ce contenu lui plaise en retour. Ces algorithmes fonctionnent bien jusqu’à un certain point, si on ne les teste pas correctement tout au long de leur utilisation. Ils peuvent créer des classes rigides dans lesquelles les utilisateurs ne peuvent pas sortir – passer d’une classe à l’autre au cours du temps – , cela induit une bulle.

L’effet bulle a toujours existé dans la société, on tend à côtoyer des gens qui nous ressemblent. Cela étant dit, les réseaux sociaux et les algorithmes qui y habitent tendent à décupler le phénomène et les conséquences qui vont avec, comme la propagation de fake news et de théories du complot en tout genre.

Au fond, l’effet bulle perpétué et accentué par les algorithmes ne va-t-il pas finir par instituer un nouveau féodalisme, tel que défini par Olivier Babeau ou encore Joel Kotkin, à savoir une société extrêmement polarisée, donc hiérarchisée sans mobilité sociale ?

La société est davantage polarisée sur les réseaux sociaux où les débats, maladroitement ou dangereusement articulés, s’imposent. Cela étant dit, il n’y a pas de fatalité et il est possible technologiquement parlant – en grande partie – de casser cet effet bulle.

Il est également possible d’éviter de mettre en avant algorithmiquement des contenus partagés de manière accélérée par un grand nombre d’utilisateurs sur des temps courts, ces contenus étant par nature haineux, transgressifs ou encore polémiques.

Vous appelez de vos vœux un électrochoc scientifique s’agissant de nos responsables politiques, économiques et du grand public. Comment cela pourrait se matérialiser et est-ce souhaitable (cf L’Atlantide) ?

Il est fondamental pour ne pas dire critique que nos dirigeants politiques comprennent les mécanismes de cette science pour construire et proposer des législations cohérentes et efficaces, développer une vision technologique et scientifique ambitieuse pour le pays, ou encore parler aux Français avec simplicité et intelligibilité.

La justice algorithmisée est destinée à faire florès. Le droit implique des normes préexistantes, compréhensibles et accessibles à tous permettant de les légitimer. Or, vous rappelez à juste titre que les algorithmes ne brillent pas par leur explicabilité du fait du machine learning

Je ne dis pas cela. J’explique que les algorithmes implicites (que je développe moi-même) ont un niveau d’explicabilité plus faible de part leur construction par apprentissage machine (ou machine learning). Cela étant dit, nous avons bien souvent besoin de ces algorithmes pour résoudre des problèmes complexes et fortement abstraits.

En revanche, et c’est tout le sujet du livre, la loi devrait imposer les acteurs à appliquer des méthodes de calculs afin d’extraire la logique même partielle de fonctionnement des algorithmes. Dans le chapitre 3 de mon livre, je présente une partie de ces méthodes qui peuvent être appliquées avant l’entraînement – sur les jeux de données -, pendant l’entraînement, ou après l’entraînement. Cela permet aux acteurs technologiques d’anticiper les erreurs, ainsi que les risques de discimination technologique pour les responsabiliser face aux outils qu’ils développent.

Autre point de friction illustré par l’algorithme un temps utilisé par la police de Los Angeles pour prévenir les crimes : les algorithmes en individualisant à outrance le profilage constituent le terreau fertile au déterminisme…

On parle ici de l’outil PredPol (Predictive Police), développé initialement par un professeur de l’université de Los Angeles, qui fournissait à la police de LA chaque matin les zones à patrouiller et les individus à approcher dans la journée. L’algorithme ayant appris sur les crimes déclarés du passé, il n’a fait que reproduire les biais de patrouilles historiques.

En particulier il a transformé une représentativité statistique concernant les populations noires et hispaniques – plus présents chez les délinquants et les criminels de la ville de LA – en condition systématique du futur. Ce qui est en soit de la discrimination.

L’open data apparaît souvent comme une solution démocratique et décentralisée, est-ce un levier pertinent pour dompter les algorithmes et développer leur acceptabilité par la population, avec les smart cities ?

L’open data est un levier pour partager les informations afin de faire des grands bonds technologiques, sociétaux et économiques. Cela étant dit, ce n’est pas parce que vous collectez vos données dans une base ouverte que ces données ne sont pas biaisées. Il faut être prudent et appliquer les mêmes bonnes pratiques.

Vous souhaitez nous signaler une erreur ? Contactez la rédaction.