Aurélie Jean : ne pas faire de l’algorithme le bouc émissaire

Un entretien avec Aurélie Jean, auteure du nouvel essai « Les algorithmes font-ils la loi ? » paru aux éditions de l’Observatoire (octobre 2021).

Partager sur:
Sauvegarder cet article
Aimer cet article 0

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Aurélie Jean : ne pas faire de l’algorithme le bouc émissaire

Publié le 9 novembre 2021
- A +

Les ganacheries tombant aussi aisément au sujet des algorithmes qu’à Gravelotte, trouver une nourriture de l’esprit équilibrée et éclairante relève de la tâche pascalienne. Aurélie Jean est de celle-ci. Mêlant pédagogie et nuance, elle fait entendre sa voix et ses messages aux quatre coins du globe, seule échelle à la mesure de cette globetrotteuse hyperactive.

À l’occasion de la sortie de son dernier ouvrage, Les algorithmes font-ils la loi ?, aux éditions de l’Observatoire, Aurélie Jean a répondu aux questions de Corentin Luce.

Aurélie Jean est scientifique numéricienne, entrepreneuse mais aussi chercheuse. Elle a fondé In Silico Veritas, une société de conseil stratégique en data et en algorithmique basée aux USA et en France, et plus récemment une deep tech startup DPEEX dans le domaine de l’IA appliquée au cancer du sein. Contributrice à l’hebdomadaire Le Point, elle a aussi fait paraître plusieurs ouvrages, le dernier étant Les algorithmes font-ils la loi ?

En 2019, le magazine Forbes l’a classée parmi les 40 Françaises les plus influentes de l’année.

 

Corentin Luce : Comment expliquez-vous le paradoxe latent développé dans votre livre : en l’absence d’une personnalité juridique et d’une volonté individuelle propre, les algorithmes ne peuvent faire la loi et pourtant, un sentiment latent d’impuissance prospère…

Aurélie Jean : Cela vient de l’incompréhension des citoyens et des dirigeants politiques de cette discipline relativement complexe et profondément intangible. À défaut de capturer les tenants et les aboutissants des mécanismes algorithmiques à l’origine des nombreux scandales de ces quatre dernières années (mauvaise conception, mauvaise collecte de données, tests non réalisés…), on se tourne vers un bouc-émissaire qu’est l’algorithme lui-même.

Est-il exact de dire que les algorithmes ne font pas la loi mais règnent ?

Les algorithmes ne font pas strictement la loi, nous avons un libre arbitre évident dans nos vies. Ils n’interviennent pas dans toutes les décisions qui nous concernent. Cela étant dit, ils orientent parfois maladroitement ou dangereusement nos comportements, en particulier sur les réseaux sociaux.

Les risques pour la démocratie, pour la santé du débat public ou encore l’addiction à ces outils font partie des menaces évidentes de ces outils dont les algorithmes attirent et retiennent l’attention des utilisateurs, ou encore renforcent la visibilité des contenus polémiques, transgressifs et haineux.

Vous semblez opter pour la notion d’encadrement, davantage que la régulation. Quelle est la différence entre ces deux termes ?

J’opte pour une régulation de cette discipline à travers non pas la régulation des algorithmes car cela est tout simplement impossible – les algorithmes ne pouvant pas être évalués entièrement – mais à travers un encadrement et une régulation sur les pratiques de conception, de développement, de tests et d’usage de ces algorithmes.

Il y a deux leviers sur lesquels il est possible d’agir pour concrétiser cet encadrement : la manière dont les algorithmes sont conçus et leur utilisation. Comment cela pourrait se traduire sur le plan juridique ?

Chaque acteur technologique devrait être dans l’obligation de construire et d’appliquer des bonnes pratiques de conception, de développement technique, et de tests de ses algorithmes pour assurer ce qu’on nomme la fairness en anglais – ce qui pourrait se traduire comme justesse en francais – et donc écarter le risque de discrimination technologique et d’erreurs pouvant mener à des conséquences graves sur les individus.

En cas de scandale, un audit des pratiques de l’entreprise permettrait de confirmer la mise en place (ou pas) d’une bonne gouvernance algorithmique et donc le niveau de conformité de l’acteur. Expliciter les bonnes pratiques dans la loi serait une erreur car les lois doivent être souples et durables. Les pratiques algorithmiques évolueront dans le futur en étroit lien avec l’arrivée de nouveaux types d’algorithmes.

L’effet bulle plane tout au long de votre ouvrage, comment pouvez-vous le décrire et pour quelles conséquences ?

L’effet bulle, théorisé par Eli Pariser, est un effet d’enfermement des utilisateurs d’un réseau social dans une bulle d’opinion et d’observation. Un réseau social comme Twitter par exemple possède des algorithmes dont l’algorithme de suggestion de contenu qui va suggérer des posts à l’utilisateur en fonction de son profil. Pour cela un autre algorithme dit de catégorisation va classer/catégoriser les utilisateurs en fonction de leur profil statique (localisation, nombre de followers…) et dynamique (les types de posts qu’ils aiment, le type de commentaires qu’ils écrivent…).

L’idée est ensuite de proposer à un utilisateur d’une classe, un contenu qu’une autre personne de cette même classe – et donc qui lui ressemble – a aimé. Avec en théorie l’idée que ce contenu lui plaise en retour. Ces algorithmes fonctionnent bien jusqu’à un certain point, si on ne les teste pas correctement tout au long de leur utilisation. Ils peuvent créer des classes rigides dans lesquelles les utilisateurs ne peuvent pas sortir – passer d’une classe à l’autre au cours du temps – , cela induit une bulle.

L’effet bulle a toujours existé dans la société, on tend à côtoyer des gens qui nous ressemblent. Cela étant dit, les réseaux sociaux et les algorithmes qui y habitent tendent à décupler le phénomène et les conséquences qui vont avec, comme la propagation de fake news et de théories du complot en tout genre.

Au fond, l’effet bulle perpétué et accentué par les algorithmes ne va-t-il pas finir par instituer un nouveau féodalisme, tel que défini par Olivier Babeau ou encore Joel Kotkin, à savoir une société extrêmement polarisée, donc hiérarchisée sans mobilité sociale ?

La société est davantage polarisée sur les réseaux sociaux où les débats, maladroitement ou dangereusement articulés, s’imposent. Cela étant dit, il n’y a pas de fatalité et il est possible technologiquement parlant – en grande partie – de casser cet effet bulle.

Il est également possible d’éviter de mettre en avant algorithmiquement des contenus partagés de manière accélérée par un grand nombre d’utilisateurs sur des temps courts, ces contenus étant par nature haineux, transgressifs ou encore polémiques.

Vous appelez de vos vœux un électrochoc scientifique s’agissant de nos responsables politiques, économiques et du grand public. Comment cela pourrait se matérialiser et est-ce souhaitable (cf L’Atlantide) ?

Il est fondamental pour ne pas dire critique que nos dirigeants politiques comprennent les mécanismes de cette science pour construire et proposer des législations cohérentes et efficaces, développer une vision technologique et scientifique ambitieuse pour le pays, ou encore parler aux Français avec simplicité et intelligibilité.

La justice algorithmisée est destinée à faire florès. Le droit implique des normes préexistantes, compréhensibles et accessibles à tous permettant de les légitimer. Or, vous rappelez à juste titre que les algorithmes ne brillent pas par leur explicabilité du fait du machine learning

Je ne dis pas cela. J’explique que les algorithmes implicites (que je développe moi-même) ont un niveau d’explicabilité plus faible de part leur construction par apprentissage machine (ou machine learning). Cela étant dit, nous avons bien souvent besoin de ces algorithmes pour résoudre des problèmes complexes et fortement abstraits.

En revanche, et c’est tout le sujet du livre, la loi devrait imposer les acteurs à appliquer des méthodes de calculs afin d’extraire la logique même partielle de fonctionnement des algorithmes. Dans le chapitre 3 de mon livre, je présente une partie de ces méthodes qui peuvent être appliquées avant l’entraînement – sur les jeux de données -, pendant l’entraînement, ou après l’entraînement. Cela permet aux acteurs technologiques d’anticiper les erreurs, ainsi que les risques de discimination technologique pour les responsabiliser face aux outils qu’ils développent.

Autre point de friction illustré par l’algorithme un temps utilisé par la police de Los Angeles pour prévenir les crimes : les algorithmes en individualisant à outrance le profilage constituent le terreau fertile au déterminisme…

On parle ici de l’outil PredPol (Predictive Police), développé initialement par un professeur de l’université de Los Angeles, qui fournissait à la police de LA chaque matin les zones à patrouiller et les individus à approcher dans la journée. L’algorithme ayant appris sur les crimes déclarés du passé, il n’a fait que reproduire les biais de patrouilles historiques.

En particulier il a transformé une représentativité statistique concernant les populations noires et hispaniques – plus présents chez les délinquants et les criminels de la ville de LA – en condition systématique du futur. Ce qui est en soit de la discrimination.

L’open data apparaît souvent comme une solution démocratique et décentralisée, est-ce un levier pertinent pour dompter les algorithmes et développer leur acceptabilité par la population, avec les smart cities ?

L’open data est un levier pour partager les informations afin de faire des grands bonds technologiques, sociétaux et économiques. Cela étant dit, ce n’est pas parce que vous collectez vos données dans une base ouverte que ces données ne sont pas biaisées. Il faut être prudent et appliquer les mêmes bonnes pratiques.

Voir les commentaires (5)

Laisser un commentaire

Créer un compte Tous les commentaires (5)
  • J’ai du mal avec des dialogues qui ne définissent pas leurs termes, surtout des mots à la mode donc le sens dévie de la définition originale.

    Un algorithme est une suites d’opérations qui transforme une entrée en une sortie. Par exemple une recette de cuisine fournit les étapes à suivre, qui donne un plat à partir des ingrédients.
    Ou alors un algorithme simulant un dé, qui fournit un nombre aléatoire entre 1 et 6.
    La recommandation est donc un Nième standard (à la ISO27001, mais étatique donc) pour faire en sorte que le développement de notre algorithme de dé suive des processus et bonnes pratiques, pour que le résultat ne soit pas un dé qui donne 6 une fois sur trois. Je n’y crois pas trop.

    Pour la suggestion de contenu suivant les préférences de l’utilisateur, rien de mieux qu’un esprit critique, et de favoriser les concurrents de plateformes.

    Pour un exemple concret, je préfère écouter de la musique sur Soundcloud plutôt que YouTube, puisqu’il est très facile de s’enfermer dans le même style musical sur Youtube.
    Il est aussi possible de suivre du contenu qui n’a pas été suggéré justement pour laisser la plateforme apprendre de préférences hétéroclites

    Au delà de ca, plus techniquement, ne pas utiliser de compte, vider ses cookies et utiliser un VPN pour changer d’adresse, pour apparaître comme un utilisateur nouveau

  • Comme de nombreux produits, la « démocratie 2.0 » propose et impose une nouvelle version avec plus de « fonctionnalités », sans corriger les bugs de la version précédente…

    Au final, on garde les bugs de la première version et on en ajoute des nouveaux, plus subtils et plus dangereux.

  • L’idéologie de base du discours et de la démarche est quand même la croyance profonde que l’état doit s’ériger en tant que gardien moral par le biais de la loi même au plus profond d’un morceau de code d’une entreprise privée car celui-ci sait à l’avance ce qui va être bon ou non pour l’évolution de la société.

    Egalement, je suis dubitatif sur cette logique de gaspiller le temps de la police dans des quartiers où ils ne se passent rien alors que des quartiers qui auraient plus besoin d’eux sont privés de ce temps supplémentaire.

    Autre énorme biais de pensée, comme si d’avoir une présence policière n’était pas un service rendu à un quartier mais une sorte de taxe dont tous les quartiers devrait s’acquitter équitablement indifféremment de leur niveau de criminalité …

  • comme le dit l auteur, on ne peut pas expliquer le resultat des algo a base de machine learning vu que ce qui fait la decision c est ce que la machine a appris
    donc si vous savez pas pourquoi le systeme a fait ca, comment voulez vous le tester ? vous assurer qu il repondra toujours du bon coté ?

    Pour le reste les algo ne feront pas la loi ecrite mais il pourront vous pourrir la vie en vous empechant d acceder a X ou Y sans de multiples demarches par ex

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don
2
Sauvegarder cet article

Accueilli avec enthousiasme par les uns, avec circonspection par les autres, le nouveau modèle d’intelligence artificielle GPT-4 développé par OpenAI est sorti ce mardi 14 mars.

Announcing GPT-4, a large multimodal model, with our best-ever results on capabilities and alignment: https://t.co/TwLFssyALF pic.twitter.com/lYWwPjZbSg

— OpenAI (@OpenAI) March 14, 2023

Le système peut faire passer l'examen du barreau, résoudre des énigmes logiques et même créer un site internet à partir de quelques l... Poursuivre la lecture

Il ne s’agit pas voir le mal partout, ni le bien nulle part !

Mais malheureusement, hier comme aujourd’hui, l'enfer est supposé être pavé de bonnes intentions. Sur la base de cet adage, les algorithmes de recommandation ont naturellement prétention à aider les usagers. Ainsi dès lors que vous utilisez un navigateur traditionnel, de multiples algorithmes de ce type vous attendent au détour de la toile.

Pour faire simple et sans entrer dans le détail de leur typologie, nous pouvons distinguer le filtrage collaboratif : User-Based,... Poursuivre la lecture

L’idée que les règles vont tout résoudre est très profondément ancrée dans la culture européenne, la pensée des citoyens et l’esprit des hommes politiques. Nouvelle illustration avec le Digital Markets Act.

Allons-nous pour autant créer des champions européens et contrôler notre avenir numérique ?

C’est la fiesta à la Commission européenne !

Un accord de principe a été donné par les États membres, le Parlement et la Commission concernant le fameux Digital Markets Act (DMA pour les initiés), en discussion depuis un peu plus d'un... Poursuivre la lecture

Voir plus d'articles