Internet est-il en train de devenir l’outil qui réduira nos libertés ?

Sheeps by Colton Kats(CC BY-NC 2.0) — Colton Kats, CC-BY

Internet est-il en train de devenir un outil aseptisé permettant de contrôler les humains alors qu’il était au départ un outil de liberté et d’émancipation ?

Par Yannick Chatelain.

La liberté sur le net a continué à décliner en 2019.

C’est le triste constat du rapport de freedomhouse soulignant la crise engendrée par les réseaux sociaux et leurs usages les plus dévoyés – entre autres par les gouvernances – des réseaux sociaux qui mettent en péril nos démocraties.

En 2020, ce qui devait être une technologie dédiée à l’émancipation, Internet et ses outils afférents est en péril.

L’ Algorithmisme, cette nouvelle religion qui a pour Dieu l’algorithme, progresse et gangrène son mode de fonctionnement. Cette religion  a ses missionnaires acharnés : GAFAM, BATX et gouvernants. S’ils lui vouent un culte inconditionnel, c’est qu’ils le pensent à terme leur Dieu (Bêta) en mesure de les servir avec de plus en plus de fiabilité et de puissance !

  • les marchands visent un ciblage de plus en plus affiné poursuivant l’accès à ce qui leur apparaît être le nirvana : un marketing prédictif.
  • les gouvernants, eux se posant comme les garants, avec l’appui de leur Dieu bêta – d’une protection accrue des citoyens, visant une société du contrôle et de pensée unique : la leur.

Un nouveau Dieu Bêta au service de qui ? Des citoyens ? Certainement pas !

Comme déjà évoqués, ses plus fervents missionnaires – marchands et gouvernances – poursuivent des buts distincts. L’algorithmisme est en l’état, une religion violente, amorale, profondément antidémocratique et qui plus est non fiable.

Pourquoi s’inquiéter ? Aucune raison, d’autant plus que ses principaux missionnaires oublient au passage – ou en les balayant d’un revers de main – toutes les alertes des chercheurs et experts.

Ils feignent par exemple d’ignorer (et sont peu enclins à le publiciser) une défaillance majeure du nouveau Dieu qu’ils vénèrent : le biais algorithmique1.

Par delà toutes les atteintes à la vie privée que leur Dieu Algorithme tente d’imposer sans complexe dans ses domaines de prédilections (l’univers marchand et le contrôle social) ce nouveau Dieu peine – et c’est peu de le dire – à créer un monde fiable.

La reconnaissance faciale et le contrôle social

L’expérience de reconnaissance faciale des conducteurs mise en place par le MTA sur le pont de Brookling en 2018 – aurait ainsi – selon un courrier interne – était un échec cuisant, ce courriel soulignant un remarquable un taux de réussite de « 0 % » pour identifier des visages « avec des paramètres acceptables ». Une illustration d’une technologie balbutiante qui vient s’ajouter à de nombreuses autres contre-performances cinglantes.

Cette expérience vient corroborer une étude récente menée par Inioluwa Deborah Raji et Joy Buolamwini, publiée lors de la conférence AAAI / ACM sur l’intelligence artificielle, l’éthique et la société, qui a révélé que la version de l’outil de reconnaissance d’Amazon, Amazon Rekognition, disponible depuis août 2018, révèle des taux d’erreurs importants et remet en cause une nouvelle fois sa fiabilité ainsi « le taux d’erreur concernant les hommes blancs est nul, celui concernant les femmes de couleurs atteint plus de 30 %. »

L’Union américaine pour les libertés civiles (ACLU), qui avait effectué des tests sur le système de reconnaissance faciale d’Amazon avait déjà noté des résultats plutôt alarmants en terme de fiabilité : 28 membres du Congrès avaient été confondus avec des criminels.

En réponse, deux responsables d’Amazon, Matthew Wood et Michael Punke, se sont acharnés à tenter au travers d’une série d’articles de réfuter les résultats de l’étude. À la suite de ce constat, une lettre ouverte a été adressée à Amazon par de nombreux chercheurs, les implorant de cesser de « vendre ce produit tant qu’aucune législation ou garde-fou prévenant ce type d’abus ne serait mis en place. Parmi les signataires de la lettre, nous retrouvons des spécialistes de renom tel que Yoshua Bengio, professeur à l’Université de Montréal et colauréat du prix Turing 2019. »

En France, malgré une technologie à la fiabilité hautement douteuse, deux ans après Amazon Go, dans les pas de la Chine, ou plusieurs chaînes de magasins utilisent désormais les systèmes de paiement par reconnaissance faciale de Tencent (WeChat Pay) et d’Alibaba (Alipay), c’est Carrefour qui selon le site spécialisé Linéaires s’est lancé à son tour en France dans l’expérimentation de magasins sans caisse… s’appuyant sur la reconnaissance faciale et a ouvert son propre mini-Amazon Go à destination des salariés au siège social du groupe de supermarchés situé à Massy, près de Paris. Pour ce qui est des résultats… pas de nouvelles.

Quid de la liberté d’expression, d’information ?

Certains usagers l’ignorent peut-être, mais leur liberté d’expression est jour après jour de plus en plus menacée, et risque fort de devenir à court terme de plus en plus illusoire, ou en d’autres mots un simulacre.

Les algorithmes qui se profilent au niveau des moteurs de recherche, des réseaux sociaux, se décident en cercle très fermé : États et Entreprises Nations. Et si le Dieu algorithme n’en fait pas assez pour satisfaire les gouvernances, alors gouvernances et acteurs s’arrangent : en décembre 2019, Facebook a répondu favorablement à la demande du gouvernement de Singapour souhaitant corriger une publication d’Alex tan, le blogueur du site The States Times Review, Facebook a finalement opté pour marquer la publication comme comme calomnieuse !

Selon Reuters, ce texte uniquement visible par les utilisateurs de Singapour indiquait  : « Facebook est légalement obligé de vous dire que le gouvernement de Singapour dit que ce message contient de fausses informations. » Dans la même période, le Parti démocratique de Singapour (SDP), l’un des principaux partis d’opposition, a reproché à Google d’avoir refusé sa demande d’acheter des publicités sur le site…  Google invoquant la nouvelle loi chinoise, qui interdit la publicité visant à influencer l’opinion publique…

Voilà ce qu’il en est des petits arrangements entre amis ! Il semblerait lorsqu’il est question de business entre « Algorithmitiens », la liberté d’expression n’ait plus son mot a dire !

Nous pouvons raisonnablement craindre que leur nouveau Dieu, par delà les régimes dont c’est l’usage, veille et veillera à noyer tout ce qui s’inscrit en opposition à une pensée jugée conforme des commanditaires, et ce de façon plus ou moins radicale : censure directe pour les régimes autoritaires, ou censure par noyage de l’information dérangeante pour un résultat somme toute similaire, l’hypocrisie en plus, exposer la population à l’information qui convient au pouvoir en place.

Si vous en doutez, il y a des précédents : en Chine c’est bien le réveil et la fronde des salariés de Google qui a mis un coup d’arrêt au projet Dragonfly : un  Google à la botte de la gouvernance chinoise.

Il n’y a rien d’étonnant à ce que Gafam, BATX ,et gouvernances, souscrivent au credo algorithmique : quelle aubaine que leur nouveau Dieu qui leur donne l’espoir de façonner à terme un monde à leur envie et à leur service le plus exclusif… l’algorithmisime est une religion qui leur semble à même de rétablir un biopouvoir à l’ancienne ! Aussi lorsque le temps de la reconquête d’un Biopouvoir en friche est en jeu, pourquoi s’encombreraient-ils de ce « virus » que sont les libertés humaines les plus fondamentales ?

Quid de la liberté d’expression dès lors que l’information peut être hiérarchisée, algorithmisée sans transparence ? Libre à Google de noyer une information selon son bon vouloir, voire accéder aux desiderata d’un tiers jouant dans la même cour de pouvoir. Libre à Facebook de laisser passer les mensonges les plus éhontés d’individus certifiés VIP ! Et moi et moi et moi… et vous ? Le drame, et le suraccident de l’affaire c’est que non contents de subir cette insulte à l’intelligence humaine, nous aidons chaque jour les adeptes plus frénétiques à établir leurs sociétés rêvées du contrôle, et accélérons l’avènement d’une dystopie qui finira par s’avérer fonctionnelle  !

Tous responsables, tous coupables… tous complices ?

Ne pas se préoccuper de l’usage qui est fait de nos données : coupable !

Vendre nos données personnelles sur des plateformes et applications dédiées : Coupable !

Dire sans rire que nous n’avons rien à cacher : coupable !

Ne pas dénoncer des ententes entre Algorithmitiens qui soutiennent la cause de la censure : coupable !

Dans le cadre qui se dessine, notre choix d’usagers est dichotomique :

— soit nous contribuons à la destruction collective de l’internet originel, celui de l’émancipation, et, quel que soit notre pays d’appartenance, de façon individuelle ou collective, nous acceptons sans sourciller le règne de ce Dieu aujourd’hui défaillant sans mot dire.

— soit nous nous défaussons et nous combattons pied à pied, comme l’on fait les salariés de Google (cf projet dragon fly), ou en soutenant lorsque cela est nécessaire, moult associations soucieuses de défendre et de préserver les droits et libertés individuelles garanties à chaque citoyen par leurs constitutions respectives afin d’empêcher l’avènement d’un Internet aseptisé au service non pas de la vérité, mais d’une « vérité » imposée et non discutable.

« Le Web est devenu une machine produisant de l’injustice et de la division, influencée par des forces puissantes qui l’utilisent pour imposer leurs propres agendas. » Tim Berners Lee

 

  1. Un biais algorithmique se produit lorsque les données utilisées pour entraîner un système d’apprentissage automatique reflètent les valeurs implicites des humains impliqués dans la collecte, la sélection, ou l’utilisation de ces données. Les biais algorithmiques ont été identifiés et critiqués pour leur impact sur les résultats des moteurs de recherche, les services de réseautage social, le respect de la vie privée, et le profilage racial. Dans les résultats de recherche, ce biais peut créer des résultats reflétant des biais racistes, sexistes ou d’autres biais sociaux, malgré la neutralité présumée des données.
Vous souhaitez nous signaler une erreur ? Contactez la rédaction.