L’ouverture sur le monde grâce aux réseaux sociaux : une fenêtre aux volets clos

facebook celular 1 by Esther Vargas (CC BY-SA 2.0) — Esther Vargas , CC-BY

Sur les réseaux sociaux, rien ne prédispose l’individu à s’apercevoir qu’il est pris dans une bulle filtrante. OPINION

Par Alexandre Marraud des Grottes.

Production de contenu informatif (Quakebot), rencontre entre une offre et une demande (APB, Meetic), répartition des ressources (Uber), recommandation d’un produit personnalisée (Netflix, Amazon), aide à la prise de décision (Waze), prédiction, anticipation, reconnaissance faciale sur les logiciels photo et sur les téléphones, catégorisation des spam … les algorithmes entourent depuis des années nos rapports à la consommation, à autrui, au monde, en personnalisant notre navigation et aidant notre prise de décision dans une offre surabondante de contenu et de possibilités.

Utiles, indéniablement, d’aucuns, toutefois, suspectent certains de ces algorithmes d’augmenter la propension des individus à ne fréquenter que des objets, des personnes, des opinions, des cultures conformes à leurs propres goûts et à rejeter l’inconnu. Cela pourrait se révéler problématique dans une logique, personnelle d’une part, de construction d’esprit critique, voire, desservir la logique, collective d’autre part, sur laquelle se fonde notre société politique

Quels enjeux pour la démocratie ?

News feed algorithm ou la personnalisation algorithmique

Un algorithme consiste en une description d’une suite finie d’instructions permettant d’obtenir un résultat à partir d’éléments fournis en entrée. À titre d’exemple, une recette de cuisine est un algorithme, permettant d’obtenir un plat à partir de ses ingrédients, après une succession d’étapes. Point de nourriture ici – quoique. Nous nous intéresserons à News Feed Algorithm : l’outil de personnalisation du fil d’actualité de Facebook qui influence le rapport au monde des milliards d’utilisateurs du réseau social, via la présentation de contenus conformes à leurs goûts.

Quelques chiffres : la force de frappe des réseaux sociaux dans la transmission de l’information

Sur les 7,6 milliards d’habitants que compte la Terre, 4,2 sont des internautes, dont 3,3 milliards actifs sur les réseaux sociaux.

Chaque jour 1,5 milliard de personnes se connectent sur Facebook, dont 22 millions en France, soit un tiers de l’ensemble de la population française.

Le fil d’actualité concentre 40 % du temps passé sur Facebook.

Au réveil, 48 % des 18-34 ans se connectent à Facebook. Le réseau social représente une source de connaissances à laquelle le gens sont extrêmement attentifs et prêtent une certaine crédibilité, au point de ne pas utiliser leur temps supplémentaire pour s’informer directement sur les médias1.

Plus précisément, en France, les réseaux sociaux sont le premier moyen d’information des 15-34 ans, qui les utilisent quotidiennement pour 71 % d’entre eux, selon une étude de Médiamétrie commandée par le ministère de la Culture.

La personnalisation algorithmique du contenu informationnel

Lorsque Facebook a implanté son algorithme de classement de contenu, il y a 9 ans, la société faisait face à plusieurs enjeux :

  1. faire face à l’augmentation exponentielle du nombre de publications postées quotidiennement sur le réseau social
  2. améliorer la pertinence des actualités diffusées auprès des utilisateurs en fonction de leurs amis, pages et contenus préférés
  3. diminuer les spam et les publications de mauvaise qualité relayés par des entreprises présentes sur Facebook
  4. augmenter la visibilité des publicités Facebook dans le fil d’actualité
  5. maintenir l’addiction de ses utilisateurs pour le service

De là est né l’algorithme Edgerank, devenu News Feed Algorithm. Adam Mosseri, le créateur du fil d’actualité sur Facebook, donne à ce sujet une analogie assez parlante pour illustrer le fonctionnement de cet algorithme.

Adam Mosseri part d’une situation où quelqu’un doit, au restaurant, commander pour la personne en face de lui. Selon lui, ce processus se fait en 4 étapes :

  • lire le menu pour connaître ses options.
  • réfléchir à toutes les informations à notre disposition (ce que la personne aime manger, est-ce le déjeuner ou le dîner, quels sont les bons plats du restaurant)
  • faire des prédictions (est-ce qu’elle aimerait du saumon pour déjeuner, serait-il bizarre de commander un croissant au dîner, etc.)
  • passer commande.

En l’occurrence, l’algorithme de Facebook fonctionne exactement de la même façon :

  • inventaire : lors de la connexion sur Facebook, l’algorithme fait un inventaire de tout ce qui a été publié par vos amis et les pages que vous suivez.
  • signaux : Facebook analyse toutes les données à sa disposition pour prédire les publications intéressant le plus l’utilisateur. Ces signaux exploités par Facebook ne sont pas publics, outre quelques éléments dévoilés par Adam Mosseri lors du F8 Summit – conférence annuelle organisée par Facebook – : partages, commentaires, likes, suivis de pages, heures, endroits, notamment.
  • prédictions : Facebook utilise ensuite ces signaux pour faire des prédictions sur le contenu qui pourrait intéresser l’utilisateur
  • score : l’algorithme de Facebook fait son choix et classe les publications dans votre fil d’actualités selon un score de pertinence.

Les enjeux démocratiques de la personnalisation du contenu

La personnalisation du contenu – politique et actualité particulièrement – au bénéfice de l’utilisateur, l’empêche d’être confronté à un fil d’actualité hétéroclite, pluraliste. Cela pourrait se révéler problématique dans une logique, personnelle d’une part, de construction d’esprit critique, voire, desservir une logique, collective d’autre part, sur laquelle se fonde notre société politique (débat, contradictoire, constitution d’une communauté de pensée et de valeurs).

Enfermement algorithmique et biais de confirmation

Dans son ouvrage La bulle filtrante, Eli Pariser subodore que les algorithmes augmentent la propension des individus à ne fréquenter que des objets, des personnes, des opinions, des cultures conformes à leurs propres goûts et à rejeter l’inconnu, l’altérité. Ceci à cause des méthodes de classement des contenus des fils d’actualités, en s’appuyant sur les caractéristiques des profils.

Le thème de la bulle de filtre se conceptualise, semble-t-il, à deux échelles : celle des individus et celle de la société dans son ensemble.

À l’échelle de l’individu, le risque est que celui-ci se voie purement et simplement assimilé à un alter ego numérique constitué à partir de ses données et se trouve en quelque sorte enfermé dans une bulle de recommandations toujours conforme à ce profil. Les effets d’une offre culturelle et de contenus plus abondants que jamais auparavant se verraient ainsi paradoxalement neutralisés par un phénomène de limitation de l’exposition effective des individus à la diversité culturelle. Un tel phénomène pourrait d’ailleurs se produire alors même que l’individu souhaiterait en principe une telle diversité. La Direction Générale des Médias et des Industries Culturelles (DGMIC) souligne ainsi que « la recommandation algorithmique est fondée sur la consommation réelle des utilisateurs plutôt que sur leurs désirs ou aspirations2.

Certains auteurs, à l’instar d’Antoinette Rouvroy estiment, au contraire, que cette bulle filtrante n’est pas propre aux algorithmes [en ce que] nous sommes des êtres très prévisibles, aux comportements très réguliers, facilitant la possibilité de nous enfermer dans des bulles3. En l’occurrence, il est vrai que ce mécanisme de filtre est intrinsèque à l’Homme en ce qu’il tend, naturellement, à se voir conforter dans ses opinions, par des biais de confirmation, en consultant des contenus proches de ce qu’il pense4.

En effet, la consommation de contenu repose sur une structure duale de goûts : d’une part des liens forts « traduisant une préférence avérée pour un type de contenus bien identifiés a priori », d’autre part des liens faibles rendant compte d’une affinité non encore révélée pour un type de contenus restant à découvrir à posteriori. Or, les algorithmes prédictifs des grandes plateformes culturelles et des réseaux sociaux se focalisent sur les liens forts. Aucune des grandes catégories d’algorithmes n’envisage la sérendipité comme variable essentielle aux choix de consommation5.

À l’échelle de sociétés, les formes de privation d’exposition des individus à l’altérité, à des opinions différentes des leurs, notamment dans le registre politique, semblent tout à fait dangereuses. Elles pourraient constituer, à tout le moins, un problème pour la qualité et la diversité de l’information, pour la qualité et la vitalité du débat public, terreaux du fonctionnement correct des démocraties. Au pire, une incapacité des citoyens, électeurs, à prendre du recul et examiner une situation politique sous différents angles afin de penser, agir, et voter en citoyens éclairés.

Dans tous les cas, de la personnalisation de l’information résulte une fragmentation extrême de l’espace public et la disparition d’un socle minimum d’informations partagées par l’ensemble des citoyens. Les biais de confirmation, naissant du manque d’altérité, peuvent tendre à façonner une certaine rigidité conceptuelle, une absence de remise en cause de la façon de penser et de voir le monde qu’ont les personnes ne s’informant que via les réseaux sociaux.

Or, en l’absence de remise en question et de controverse, les esprits tendent à s’ancrer dans une subjectivité absolutisée et à ne pas tolérer d’autres paradigmes : tout avis divergent paraissant insupportable car inconcevable dans un certain spectre de pensée. La différence devenant facteur d’exclusion d’un groupe, figé dans une perspective donnée, avec une possibilité très restreinte d’évolution des idées.

Bien évidemment, la tendance à s’entourer de personnes partageant les mêmes idées et les mêmes valeurs n’est pas nouvelle, c’est même la base de la société. Seulement, la presse traditionnelle dans laquelle se côtoient différentes lignes éditoriales a-t-elle le mérite de permettre à ses lecteurs d’avoir conscience de l’orientation du contenu qu’ils consomment.

Or, sur les réseaux sociaux, rien ne prédispose l’individu à s’apercevoir qu’il est pris dans une bulle filtrante.

C’est ainsi que les débats sur cette bulle et ses effets politiques ont été notamment relancés à l’occasion de la campagne présidentielle américaine de 2016, à l’issue de laquelle les partisans d’Hillary Clinton ont été particulièrement frappés de constater des résultats que leurs fis d’actualité ne laissaient en rien présager6.

On peut considérer que l’absence de compréhension claire par les individus du fonctionnement des plateformes qu’ils utilisent pour s’informer fait partie intégrante du problème. Une étude a ainsi montré que plus de 60 % des utilisateurs de Facebook n’ont aucune idée de l’activité éditoriale que joue effectivement l’algorithme et croient que tous les posts de leurs amis et des pages qu’ils suivent apparaissent sur leur fil d’actualités. En vérité, ils n’en voient qu’à peine 10 % qu’à peine 10 %.

L’usage fait des algorithmes de personnalisation par des sociétés dont le champ d’action est l’économie numérique semble poser problème dès lors que l’on considère ses effets d’un point de vue sociétal, politique. Récemment, les pratiques de la société Cambridge Analytica, qui a travaillé pour le candidat Trump, ont dévoilé l’intérêt de ces nouveaux usages des algorithmes à des fins électorales. La personnalisation extrême du discours politique, appuyée sur la capacité croissante de l’IA à composer des messages en fonction des différents profils, pose aujourd’hui de sérieuses questions. Faut-il y voir une forme de manipulation ? Certainement, si le destinataire du message ne sait pas comment et, grâce à quelles informations qu’il n’a pas préalablement consenti à donner, celui-ci a été écrit.

L’enfermement algorithmique est l’envers de celui de la personnalisation. Il n’est donc pas étonnant, compte tenu du levier qu’il représente, d’en déceler les effets dans le domaine politique.

Un équilibre à inventer, une curiosité à provoquer

Dans La machine pense contre l’homme Bernanos écrit en 1948 que

la machinerie pense contre l’homme parce qu’elle pense à sa place, elle le dépossède non pas seulement de sa propre opinion, mais de la faculté d’en avoir une. Il ne pourra jamais dire ce qu’il pense, pour la raison qu’il ne saura plus ce qu’il pense. La Machinerie le saura pour lui.

Cette sentence pessimiste, d’un homme n’ayant aucune connaissance de ce que sera la Machinerie actuelle, laisse songeur quant à son degré de prescience des enjeux démocratiques induits aujourd’hui par la personnalisation du contenu informationnel.

En effet, ces algorithmes qui apprennent de nos goûts et de nos habitudes pour nous fournir un contenu de plus en plus affiné, relève d’une machinerie nommée intelligence artificielle. Ce terme, selon la définition de Marvin Minsky, se comprend comme la science qui consiste à faire faire aux machines ce que l’homme ferait moyennant une certaine intelligence. C’est en réalité le pendant numérique de la révolution industrielle et de l’automatisation des tâches rendue possible par l’avènement de la Machinerie qu’évoque Bernanos.

En l’occurrence, l’algorithme de Facebook devient meilleur avec le temps. Plus les utilisateurs s’activent sur le réseau social (aimer des pages, interagir, etc.), plus son algorithme est capable de prédire les publications que ceux-ci aimeraient voir. Cet apprentissage s’appelle machine learning et est définit par Andrew Ng, de l’Université Stanford, comme la science permettant de faire agir les ordinateurs sans qu’ils aient à être explicitement programmés, de sorte que leur comportement évolue dans le temps, en fonction des données qui leur sont fournies7.

Pour ce faire, ces algorithmes de personnalisation vont traiter de nombreuses données, dont une grande part de données personnelles, traces numériques laissées par nos navigations en ligne. La recherche d’une performance accrue de la personnalisation va dans le sens d’une collecte croissante, d’un traitement et d’une conservation accrus de données à caractère personnel. Or, on peut s’interroger sur le développement de ce type d’intelligence artificielle au regard des réglementations protectrices de ces données (Loi Informatique, fichier et liberté et RGPD notamment) et, se demander si une personnalisation plus fine – reposant sur des liens faibles et forts – et l’apport de contenus contre-argumentatifs n’est pas, in fine, limitée par ces réglementations. Faudrait-il alors consentir au traitement et croisement de nos données, dont celles dites sensibles (orientations politiques, philosophiques, religieuses, sexuelles), afin de nous livrer tout entiers à des sociétés de l’économie numérique dont le secteur d’activité n’est pas l’actualité ? Qui du réseau social ou de l’utilisateur devient alors le fournisseur de contenu ? Pour quel résultat ?

Est-il envisageable de sacrifier son droit fondamental à la protection des données à caractère personnel pour exercer son droit, non moins fondamental, à l’information lorsqu’on ne s’informe que via les réseaux sociaux ?

Le propos n’est pas de pointer du doigt les algorithmes de personnalisation, ni la possibilité d’effectuer un tri véritablement nécessaire dans une offre de contenus surabondante. Il s’agit davantage de prévenir, voire endiguer, un phénomène de d’enfermement qui, dans un monde ouvert où les êtres humains n’ont jamais eu autant la possibilité d’accéder à l’information, les enferme paradoxalement dans un modèle-réduit de pensée. Alors, restons curieux et, pour les plus courageux, suivons l’injonction du sociologue Dominique Cardon : Si vous êtes de gauche, ayez des amis de droite, et inversement.

  1. (étude réalisée par Hunt Allcott, professeur agrégé d’économie à la NYU et Matthew Gentzkow, économiste à Stanford)
  2. Rapport CNIL ; Garder la main sur le web ; 2017 ; p.33 à 40 »
  3. Propos tenus le 23 janvier 2017 lors de l’événement de lancement du débat public à la CNIL (Rapport CNIL ; Garder la main sur le web ; 2017 ; p.33 à 40).
  4. Il faut par ailleurs remarquer que certains algorithmes de réseaux sociaux permettent à l’utilisateur d’opérer certains réglages voire de les désactiver complètement afin d’avoir accès à un contenu non trié. Cette faculté est cependant très largement inexploitée.
  5. Propos tenus le 23 janvier 2017 lors de l’événement de lancement du débat public à la CNIL (Rapport CNIL ; Garder la main sur le web ; 2017 ; p.33 à 40).
  6. Rapport CNIL ; Garder la main sur le web ; 2017 ; p.33 à 40.
  7. L’apprentissage profond (Deep learning) est le socle des avancées récentes de l’apprentissage automatique, dont il est l’une des branches.

    On distingue apprentissage automatique supervisé (des données d’entrées qualifies par des humains sont fournies à l’algorithme qui définit donc des règles à partir d’exemples qui sont autant de cas validés) et non supervisé (les données sont fournies brutes à l’algorithme qui élabore sa propre classification et est libre d’évoluer vers n’importe quel état final lorsqu’un motif ou un élément lui est présenté). L’apprentissage supervisé nécessite que des instructeurs apprennent à la machine les résultats qu’elle doit fournir, qu’ils l’entraînent (Rapport CNIL ; Garder la main sur le web ; 2017 ; p.33 à 40).