Intelligence artificielle et liberté : les enjeux de la surveillance automatisée

L’utilisation de l’intelligence artificielle pose un véritable enjeu de liberté face à la tentation des politiciens de développer des solutions automatisées de surveillance des populations.

Partager sur:
Sauvegarder cet article
Aimer cet article 4
image générée par IA

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Intelligence artificielle et liberté : les enjeux de la surveillance automatisée

Publié le 23 avril 2023
- A +

L’intelligence artificielle déchaîne les passions depuis plusieurs décennies et la maturité de certains algorithmes en vient à relancer le débat sur leur utilisation et leur effet disruptif sur les métiers d’aujourd’hui. De nombreux experts craignent à juste titre une dépossession du libre arbitre des humains au profit de l’intelligence artificielle, a fortiori lorsque le point de singularité technologique sera atteint.

Néanmoins, si cette prospective est tout à fait plausible, c’est aussi en raison de l’engouement persistant par les dirigeants politiques de solutions automatisées de surveillance des populations, y compris dans des régimes pourtant qualifiés de « libres ».

 

Faillibilité humaine contre infaillibilité algorithmique

Prenons le domaine des mobilités, un environnement que nombre d’individus sont amenés à emprunter et qui fait l’objet d’un enjeu de taille : l’intelligence artificielle est conceptualisée au profit d’une régulation des comportements humains, avec pour objectif principal de « domestiquer » les mauvais usagers de la route.

Quel que soit le type d’engin motorisé, cette constante s’amplifie d’année en année avec l’expérimentation et l’introduction de nouveaux systèmes de contrôle et de verbalisation dont l’aboutissement ultime – à terme – est bien évidemment le fonctionnement en pleine autonomie, c’est-à-dire sans opérateur humain. Un niveau qui sera considéré comme atteint grâce à un taux d’échec le plus faible possible (< 1 %).

Ce qui est particulièrement matois, c’est lorsque le système algorithmique renforcé et fiabilisé au fil du temps table sur la faillibilité humaine pour dégager des recettes fiscales où le moindre écart de conduite, y compris lorsque les circonstances l’exonèrent ou l’atténuent, aboutit implacablement à une sanction automatisée. La production de nouveaux radars multifonctions dans les centres urbains est à ce titre éminemment caractéristique de l’évolution politique : le rôle de ces dispositifs n’est désormais plus de surveiller mais bel et bien de traquer. La différence sémantique est limpide au regard de la situation actuelle de nos axes de circulation et de nos territoires quadrillés par des ennemis invisibles et implacables.

Cette réalité, les transports en commun n’y font pas exception : chaque usager est scanné par des systèmes de reconnaissance biométriques et d’analyses comportementales. À toute heure et en chaque lieu, l’usager est en liberté surveillée.

Et la prochaine génération d’algorithmes prédictifs promet d’être encore plus intrusive. À partir de données recueillies et sur le recoupement de bases de données (dont l’accessibilité et la mise à jour sont sujettes à observation), un individu pourrait être interdit de transport en commun ou de location de transport individuel ou encore de recharge de carburant pour son véhicule personnel. Ce futur est bien plus proche que d’aucuns le pensent.

 

Une évolution civilisationnelle plus que technologique

De nombreux citoyens, apeurés de la vie et guère sensibles au principe de liberté, applaudiront frénétiquement des deux mains cette étape. Ce serait faire fi de cette locution latine : Hodie Mihi, Cras Tibi, autrement dit : « Aujourd’hui c’est moi, demain ce sera toi ».

Plus concrètement, toute altération voulue ou subie de ces bases de données peut du jour au lendemain faire de vous un paria social. Vous qui applaudissiez hier, imaginez que vous pouvez vous trouver dans la peau du délinquant de demain : une simple donnée modifiée par une main malintentionnée ou un code suspicieux vous fera passer du statut de citoyen modèle à celui de trublion antisocial.

La gestion de la crise covid dans les régimes occidentaux a largement démontré que la grande majorité des individus adoube une société sans risque. Or, comme le déclame si bien le philosophe Edgar Morin, une société sans risque c’est une société sans vie.

Et pour parvenir à cette société sans risque, c’est-à-dire artificielle, l’intelligence elle aussi artificielle est le meilleur allié des politiciens avides de brider toute velléité d’indépendance de pensée et d’action : l’administré est un fichier à gérer et à corriger en temps réel. Le soubassement de toutes ces décisions d’introduire à grande échelle l’intelligence artificielle dans la gestion de la vie de la cité est irrigué par un officieux renversement de valeur : l’individu est un coupable en sursis qui n’a pas encore franchi la ligne de la légalité. Or, cette ligne légale est dictée par une autorité dont la probité et la compétence sont rarement évaluées. Et c’est précisément ce point précis qui pose un réel problème et ouvre une faille philosophique dans ce phénomène.

 

Remplacer les élus par l’IA

Imaginons qu’un programme d’intelligence avancée en vienne à mesurer la probité et la compétence des élus ; que toutes leurs décisions soient soumises à une étude automatisée et évoluée pouvant donner lieu à avertissement et sanction selon la gravité constatée.

Que croyez-vous ? Ces élus si prompts à vidéosurveiller et à vidéoverbaliser leurs administrés avec des techniques d’assistance automatisée dont l’ingérence est de plus en plus marquée, seraient les premiers à réprouver toute forme de contrôle à leur égard.

Mieux encore, si un algorithme était élaboré pour fournir un indice de légitimité en temps réel, ils seraient outrés et refuseraient l’irruption d’une telle initiative pouvant entraver leur liberté d’action. Mais alors, pourquoi imposer ce choix de société à l’ensemble de la communauté si l’on reconnaît qu’elle comporte un aspect liberticide ?

Et pourquoi ne pas aller encore plus loin en promouvant le remplacement des élus, quels qu’ils soient, par une intelligence artificielle qui aurait un certain nombre de mérites comme celui d’être non-susceptible de céder à la vénalité, d’avoir une connaissance exhaustive de la législation en cours et de la faisabilité technique des projets, d’être disponible 24/7 et de ne pas céder à des pressions psychologiques ? L’on pourrait lui reprocher un certain manque d’empathie mais à tout prendre, cette tare est-elle pire que celle de la langue de bois technocratique dont les individus sont abreuvés en permanence ?

L’on constate que cette politique d’omnisurveillance de la population serait bien moins aisée à établir envers les décideurs. Que ces derniers ne manquent que rarement d’exciper de leur statut privilégié (qui initialement ne devait être qu’un mandat et non une bulle d’impunité) afin de s’exonérer de tout contrôle extérieur.

La persistance d’une telle situation frappée du sceau de l’injustice est la volonté d’une majorité de la population, dont l’opinion est savamment travaillée à longueur de temps par des manipulateurs au sein d’un système qu’Edward Bernays (1891-1995) évoquait sous le vocable de Relations Publiques, stimulant plus aisément l’émotion que la raison et dont la variable d’ajustement est le périmètre d’exercice des libertés.

Or, n’oublions pas les enseignements du philosophe anglais John Locke (1632-1704) : les libertés fondamentales ne sont ni cessibles ni réductibles, et aucune loi gouvernementale ne peut en décider autrement quand bien même une majorité d’individus se déclarerait favorable à leur diminution ou leur abrogation. Les libertés sont des lois naturelles.

 

L’outil n’est que le prolongement de la main qui l’enserre

L’intelligence artificielle, ou plutôt les intelligences artificielles (de types ANI, AGI et ASI), ne sont ni bonnes ni mauvaises ; elles ne sont là que pour répondre à une vision civilisationnelle qui détermine leur déploiement et leur emploi. C’est précisément ce point que les autorités nationales et supranationales se refusent de dévoiler : elles veulent une société régie selon leurs lois dont la constante au fil du temps est l’impunité et la prédation en lieu et place des lois naturelles fondées sur les libertés.

Les systèmes d’information automatisés sont un outil que ces mêmes autorités occidentales veulent employer pour mener une guerre anthropologique contre leur propre population : ces moyens ne sont pas la cause des tourments sociopolitiques et peuvent être reprogrammés.

En revanche, le mal est bien plus profond en raison de la nature de la classe politicienne contemporaine dont la prochaine étape est le contrôle raffermi des transactions financières (songeons au calendrier mené au pas de charge pour introduire les monnaies numériques tant en Europe qu’aux États-Unis). Tout ce qui circulera matériellement et immatériellement sans être certifié par une organisation étatique nationale ou supranationale sera déclaré suspect et révoqué grâce à de multiples sondes inquisitoires nichées dans les nœuds névralgiques des réseaux de communication.

C’est une dystopie en cours d’édification.

La bataille ne doit pas se focaliser contre l’intelligence artificielle mais sur son utilisation, et plus encore sur ceux qui enjoignent d’y recourir à grande échelle dans une vision liberticide sans intention de s’y soumettre eux-mêmes.

La tyrannie technologisante – ou technotyrannie –  ne provient pas de l’outil mais de la main qui l’enserre et l’emploie tel un fouet à l’égard de sa propre population.

Voir les commentaires (6)

Laisser un commentaire

Créer un compte Tous les commentaires (6)
  • « Infaillibilité algorithmique », laissez-moi rigoler !
    L’intelligence artificielle est condamnée parce qu’elle est la plus grande metteuse en forme d’informations approximatives et fausses qui soit, et que la réalité finira par tout remettre en place.
    Je vous invite à poser à ChatGPT les deux questions suivantes :
    Peux-tu m’écrire une bio du sociologue Yannick Harrel ?
    et une bio de l’expert en stratégie de la donnée Yannick Harrel ?
    et à nous dire si vous êtes toujours aussi inquiet de ce qu’il sait sur vous.

    • Il me semble que l’article traite de l’utilisation de l’IA pour le contrôle des comportements humains « déviants » notamment par le pouvoir, dont l’efficacité (capacité de traitement, fiabilité au sens aussi d’absence du facteur humain) s’avère de plus en plus supérieure à celui des agents humains. Donc cette infaillibilité algorythmique est à comprendre en comparaison de la faillibilité humaine dans les séquences de contrôle. Néanmoins l’auteur signale également le risque individuel si défaillance de l’IA.
      Personnellement et globalement je trouve l’article juste, surtout sur cette double menace, côté « citoyen » se décharger du contrôle pour diminuer tout risque et côté pouvoir renforcer le contrôle pour diminuer tout risque.
      La peur n’est pas un sentiment agréable et la plupart des individus voudra fuir ou faire l’autruche pour s’en protéger. Apprenons à s’y confronter pour devenir acteur en la contrôlant. Car sans peur, je suis un mort-vivant.

      • Pour moi, l’efficacité ne se mesure pas à la taille des bases de données qu’on peut traiter, mais à la pertinence de ce qu’on peut en déduire. Or quiconque a déjà traité de grandes bases de données sait que justement, plus la base de données est grande et plus le traitement est automatisé, et plus les échantillons qui dévient de la norme sont difficiles à distinguer des inévitables anomalies et erreurs de mesure. Les screenings ou les algorithmes peuvent à la rigueur vous aider à retrouver une aiguille dans une botte de foin parce que vous savez que ce que vous cherchez est une aiguille, ils ne seront jamais capables de vous affirmer que la raison pour laquelle vous vous êtes piqué les fesses en vous asseyant sur une botte de foin est à coup sûr qu’il y avait une aiguille dedans. Donc l’outil informatique se contente d’accroître les capacités de l’humain qui l’utilise, et avec les concepts actuels ou envisageables dans l’avenir prévisible de la programmation, il ne le remplace aucunement. Vos craintes vous font affirmer le contraire, mais c’est de la pure science-fiction du genre fantasy.
        Le grand danger est au contraire dans la croyance en l’infaillibilité ou même en la simple supériorité de l’algorithme sur l’humain. C’est pourquoi je vous conseille vous aussi de demander à ChatGPT de rédiger votre bio. Il rassemble des éléments habituellement associés sur le web à ceux que vous lui avez donnés, mais jamais ceux qui vous distingueraient de la norme commune, parce qu’il y a pour ça tellement de possibilités qu’il ne pourra jamais en envisager suffisamment ni reconnaître celles qui sont caractéristiques de celles qui sont anodines. Si un régime autoritaire s’appuyait sur une intelligence artificielle, vous seriez au moins autant en danger en étant un de ses partisans qu’un de ses opposants. Voilà pourquoi ça n’arrivera pas.

        • Je suis d’accord ! Je crois que nous ne parlons pas du même niveau d’implication ou d’utilisation de l’IA. Pour beaucoup d’applications de surveillance nul besoin de répondre à vos critères de fiabilité. Par exemple le projet de Bercy « Foncier innovant » pour repérer piscines, abris ou vérandas fait usage d’un algorithme. D’une manière générale, un régime autoritaire ne sera pas aussi regardant que vous sur l’IA du moment qu’il en tirera un bénéfice.

          • Oui, et les habitants excédés peuvent mettre des bâches bleues dans la majorité des jardins pour tromper l’algorithme…

            • Le feront-ils ?
              Une simple bâche peut-elle tromper l’IA ? Pas sûr..
              Je ne suis pas concerné par ces constructions illégales vais-je me rebeller ? Ah non j’en doute
              Je construis sans autorisation, je prends un risque assez limité. En effet je devrais m’acquitter des taxes en revanche la construction est actée.

              La force de l’IA n’est pas intrinsèque, elle réside dans la faiblesse ou l’incohérence humaine. Ma crainte est donc celle-ci, voir l’IA renforcer certains travers humains du moins le temps que l’inhomogénéité humaine fasse son oeuvre correctrice.

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Une traduction d'un article du Risk-Monger.

Pour lire les parties précédentes : partie 1, partie 2, partie 3, partie 4, partie 5, partie 6, partie 7.

Au cours de ma vie, les sociétés occidentales ont bénéficié d'innovations qui ont immensément amélioré la santé publique et la qualité de la vie ainsi que le progrès économique et social, la sécurité alimentaire et énergétique ; et aussi de technologies qui ont assuré une aisance bien au-delà de celle dont nos grands-parents auraient jamais rêvé. Et en dehors de l'Occident, le comm... Poursuivre la lecture

La poussière ultrafine rend difficile, déjà au stade robotique, l’exploration de Mars. Elle risque de poser de sérieux problèmes aux missions habitées et à la vie humaine. Nos ingénieurs recherchent des solutions pour la Lune. Elles bénéficieront aussi à Mars car sur ce plan les deux astres sont semblables. Récemment l’Université d’Hawaï a proposé un tissu, LiqMEST, qui moyennant la dépense d’un peu d’énergie pourrait empêcher l’adhérence aux surfaces. La NASA s’y intéresse aussi bien qu’à d’autres solutions qui lui sont complémentaires. Elle... Poursuivre la lecture

Les avancées récentes dans le domaine des interfaces cerveau-machine (BCI, brain–computer interfaces en anglais) ont permis de redonner la parole à des personnes paralysées, ouvrant ainsi la voie à une meilleure qualité de vie et à l'inclusion. Une révolution scientifique portée par des chercheurs de l'université Stanford, qui ont réussi à transformer les pensées en paroles grâce à des électrodes implantées dans le cerveau.

Cette nouvelle ère de la communication neuronale ouvre des perspectives prometteuses pour l'amélioration de la sa... Poursuivre la lecture

Voir plus d'articles