Il est urgent de parler d’éthique des robots et de l’intelligence artificielle

Entretien avec Laurence Devillers, professeure en Intelligence Artificielle et en affective computing à Sorbonne Université.

Un entretien conduit par Corentin Luce.

Par une glaciale matinée de janvier 1966, le Pr Joseph Weizenbaum, informaticien au MIT (Massachusetts Institute of Technology), vient de marquer l’histoire, même s’il l’ignore encore. Après plusieurs années de conceptions et d’améliorations, le premier chatbot (robot logiciel pouvant dialoguer avec un individu par le biais d’un service de conversations automatisées) de l’histoire est créé. ELIZA, tel est le nom de son programme informatique.

Le chabot fut alors utilisé pour dialoguer par écrit avec des patients en psychothérapie. Son fonctionnement était extrêmement rudimentaire : ELIZA se contentait de reformuler les propos du patient, les transformait en question et ajoutait de temps à autre des phrases comme : « Je vous comprends ».

Résultat ? Les patients se sont progressivement attachés à ELIZA, au point de développer une forme de dépendance. C’est « l’effet ELIZA ». Pourtant, ce chatbot était incapable de répondre et se bornait à faire parler le patient en continu. Cette expérience, aussi terrible qu’instructive, a montré que dans la majorité des cas, le patient ne souhaite pas qu’on lui réponde, il veut simplement être écouté. Être écouté, à n’importe quel prix, fut-ce une simple illusion.

L’illusion, les fantasmes. Véritable credo quand il s’agit d’aborder l’IA. Alors que des dirigeants politiques veulent de nouveau ériger des murs, la frontière entre le réel et le virtuel se floute dans des proportions inquiétantes. Ironie de l’histoire, sans doute. Dans le même temps, les objets connectés et autres agents conversationnels font florès : toutes les grandes entreprises de la tech comme les startups se bousculent pour être au grand rendez-vous de l’innovation.

Joseph Weizenbaum, en créant ELIZA, voulait-il « démontrer que la communication entre l’Homme et la machine est superficielle » ? Un demi-siècle après, qu’en est-il véritablement ? Quels dangers comportent ces « amis virtuels » qui nous veulent du bien ?

Entretien avec Laurence Devillers, professeure en Intelligence Artificielle et en affective computing à Sorbonne Université. Elle est également chercheuse au CNRS au Laboratoire Interdisciplinaire des Sciences du Numérique, où elle anime depuis 2004 une équipe sur les « dimensions affectives et sociales dans les interactions parlées ». Laurence Devillers a également écrit de nombreux ouvrages sur l’IA et les robots, le dernier étant La souveraineté numérique dans l’après-crise, aux éditions de l’Observatoire.

Vos recherches au sein du CNRS mêlent sciences cognitives, informatique et psychologie, linguistique et économie comportementale. En quoi cette pluridisciplinarité, notamment concernant le cerveau et les émotions, est-elle nécessaire pour appréhender les évolutions technologiques ?

Pendant longtemps, philosophes et scientifiques ont opposé raison et émotion. Aujourd’hui, l’évolution des connaissances scientifiques, grâce aux neurosciences, montre que les émotions sont nécessaires au fonctionnement cognitif, à la mémorisation, à l’apprentissage et à l’interaction.

La pluridisciplinarité apporte une meilleure compréhension des différentes émotions et du contexte dans lequel elles naissent. Travailler sur les liens entre perception, mémoire et émotions sous l’angle physiologique, neurobiologique, psychologique voire sociétal est fondamental pour une interprétation des signes expressifs émotionnels.

Les évolutions technologiques vont s’emparer de ces résultats pour améliorer l’impression que nous donne la machine, de nous comprendre, impression qui est réellement fausse car ces technologies ne comprennent ni le langage, ni les émotions. Elles ne font qu’interpréter des signes expressifs. Les recherches en pluridisciplinarité permettent également de mesurer le poids des émotions dans la construction de notre mémoire collective.

Dans votre ouvrage Les robots émotionnels : Santé, surveillance, sexualité… : et l’éthique dans tout ça ?, vous expliquez que les objets et machines connectés (robots, assistants vocaux comme Google HOME), ces « amis artificiels » au rôle grandissant, capables de saisir nos émotions et d’y répondre peuvent nous rendre dépendants : dans quelle mesure sont-ils synonymes de dangers et cela constitue-t-il un aveu d’échec pour une société que de déléguer autant de prérogatives à des machines ?

Ces amis artificiels au rôle grandissant, capables de saisir nos émotions et d’y répondre peuvent nous rendre terriblement vulnérables à leurs paroles et à la manipulation. Nous ne disposons pas souvent du minimum de connaissances nécessaires pour nous prémunir aussi bien de l’engouement béat face à des performances souvent survendues, qu’à des appréhensions injustifiées face au déploiement rapide de l’IA et de la robotique.

Nous devons comprendre notre rapport à ces amis artificiels et le temps qu’ils nous prennent. Sans y prendre garde, nous pouvons nous enfermer dans des relations fausses, superficielles, qui captureront toute notre attention et tout notre temps.

Qu’en est-il véritablement des systèmes de détection des émotions dans nos « amis virtuels » (robots, Siri, Amazon Alexa, Bixby…) ? Quelle est la marge de progression pour les années à venir ?

Plus de 20 % des foyers américains ont une enceinte vocale comme Google Home ou Alexa, et quelquefois jusqu’à six enceintes sont présentes au domicile. Une par pièce ! Ces chatbots seront très bientôt capables de détecter certaines de nos émotions (si nous les exprimons) et d’en simuler de façon relativement naturelle. Ils pourraient devenir nos amis virtuels voire même nos « anges gardiens ».

Un chatbot « ange gardien » veillera en permanence à la sécurité des données de son propriétaire ainsi qu’au respect de sa vie privée. Il pourrait ainsi devenir un ami protecteur connaissant tout de la vie de son propriétaire.

Vous écrivez que les robots n’auront jamais de volonté ou d’émotions, ils ne feront que les simuler. Mais si ces machines, ces IA sont capables de modéliser ces émotions avec une telle précision qu’il deviendrait impossible de faire la différence, quelle importance que ces émotions soient feintes ?

Les émotions feintes par les machines, qui ne sont ni douées de conscience, ni de vie collective, seront rapidement perçues comme « inadéquates » dans de nombreux contextes.

Par contre, pour des personnes isolées et vulnérables, elles pourront remplir un vide affectif. Créer des machines simulant la sensibilité est un courant de recherche émergent.

L’innovation fondamentale de ces machines est l’introduction du risque pour soi‑même selon les principes de la régulation de la vie. Mais cette nouvelle génération de machines pose de nombreuses questions fondamentales éthiques mais aussi technologiques : pouvons-nous ajouter une simulation du traitement affectif biologique ? Dans quelle mesure l’apparence du sentiment et de la conscience dépend‑elle d’un substrat matériel ? Quel est le rôle de la transmission culturelle et de la résolution collective des problèmes dans des sociétés de machines artificielles ?

La loi d’Amara énonce : « Nous avons tendance à surestimer l’impact de la nouvelle technologie à court terme et à la sous-estimer à long terme ». Cela peut expliquer l’hystérie autour de l’IA et de ses différentes applications. Mais ces mythes et fantasmes (titre de l’un de vos ouvrages, Des robots et des hommes : Mythes, fantasmes et réalité), quels sont-ils précisément ?

L’IA a été constamment surestimée, dans les années 1960, et encore aujourd’hui. Mais ses perspectives à long terme sont sûrement sous-estimées comme le décrit la loi d’Amara.

Les technologies d’IA ont fait d’énormes progrès ces dix dernières années, par exemple en battant des champions de jeu de go et de poker. L’IA suscite un fantasme de puissance tout autant qu’une peur de sa propre puissance, tel illustré dans le mythe du Golem.

Ce mythe repris dans le livre de Mary Shelley, Frankenstein, raconte comment un homme a réussi à donner vie à une statue d’argile et comment sa création dépourvue de conscience lui a échappé et a commencé à détruire le monde.

Des robots et des hommes a pour but d’expliquer l’IA et les robots à partir des mythes et des fantasmes qui l’entoure, et de préparer demain en proposant que ces futurs compagnons empathiques suivent onze commandements éthiques.

Dans un article publié dans le journal Le Monde datant du 14 mai 2020, vous défendez la création d’une attitude mesurée à l’égard de l’IA, entre « celle de l’humaniste, trop défiant et celle du scientifique, trop confiant ». Comment pensez-vous la théoriser et sur quels principes la feriez-vous reposer ?

La responsabilité du scientifique est une responsabilité pour l’avenir qu’il contribue à créer, car en transformant le monde grâce à l’innovation et à la science, il est considéré par la société comme l’un des responsables des conséquences de ces transformations.

En cela, il ne doit pas être trop confiant sur l’utilisation de ce qu’il crée. L’analyse conceptuelle et pratique de cette responsabilité présente des difficultés liées au fait que la projection dans l’avenir est toujours incertaine. Il est cependant nécessaire d’expérimenter les IA afin de comprendre leurs capacités et limites sur le court terme ainsi que sur le long terme.

La création d’une attitude mesurée à l’égard de l’IA nécessite de faire naître de nouvelles théories et principes mais aussi de faire évoluer nos façons de travailler vers plus de pluridisciplinarité et d’expérimentations à grande échelle.

La crise du coronavirus est riche d’enseignements : la révolution numérique s’accélère, renforçant le poids des acteurs américains et chinois. Dans ce contexte, la notion de souveraineté revient en force. Telle est aussi le titre de votre dernier ouvrage, paru aux éditions de l’Observatoire : La souveraineté numérique dans l’après-crise. À l’échelle européenne, que proposez-vous pour l’acquérir ?

La révolution numérique s’est accélérée durant la crise de la Covid-19. Les enjeux éthiques du numérique sont abordés très différemment au niveau européen, américain ou chinois, mais tout le monde reconnaît maintenant la nécessité de prendre des dispositions urgentes, pratiques et aussi évolutives que possible. Quelle société souhaitons‑nous construire ?

Une société allant vers des humains augmentés comme aux États‑Unis où la vague transhumaniste fait des ravages, une société de surveillance et de notes morales comme en Chine, ou une société fondée sur une intelligence artificielle respectant l’humain, les droits de l’Homme et sa dignité ?

Il est urgent de parler de transparence, d’intelligibilité, de neutralité, d’inclusion, de non‑discrimination, bref, d’éthique de ces IA et robots, et de réguler leurs conceptions et usages pour préserver les valeurs de nos démocraties, de nos sociétés et nos libertés.

Vous nous alertez sur les dangers de ces IA émotionnelles dans la mesure où ces simulations d’émotions facilitent la manipulation. Comment ce processus se met-il à l’œuvre ?

La manipulation par un agent conversationnel peut être directe par des informations inexactes ou indirecte grâce à des stratégies de nudge. Le nudge est un terme anglais qui signifie suggestion, incitation ou « coup de pouce ». Il s’agit de pousser doucement la personne dans une direction considérée comme bonne.

Cette théorie de manipulation relativement modérée et non envahissante, qui n’interdit rien et ne restreint pas les options de la personne, a été théorisée par l’économiste Richard Thaler.

L’essai Les robots émotionnels explique comment le numérique s’empare de ce nouveau pouvoir d’influence et pourrait nous manipuler de façon subliminale grâce à nos biais cognitifs. Nous décidons également très souvent à partir d’informations non conscientes.

L’utilisation des données est cruciale pour ces nouvelles technologies. En 2016, ce débat a accouché du RGPD pour les pays membres de l’UE. Dans le même temps, d’autres acteurs, à l’instar du think tank GenerationLibre, proposent la patrimonialité des données. Quelle solution vous semble la plus efficace pour garantir les libertés fondamentales tout en préservant un droit à l’innovation ?

Le droit des données personnelles est de plus en plus mis en avant notamment par des think tanks comme GenerationLibre qui prône la patrimonialité des données au nom des libertés fondamentales. La question des libertés est souvent mal posée. Sommes-nous seuls à décider de tout ?

Cet individualisme pourrait être un danger pour la société qui repose sur des valeurs communes et une justice pour tous. Si, par leur nature, les technologies avancées induisent des incertitudes d’un type nouveau, au-delà du risque quantifiable, les tensions éthiques qu’elles posent ne sont pas pour autant toujours nouvelles.

Plutôt qu’inventer des règles inédites, nous devons d’abord tourner nos regards vers l’histoire en essayant d’inscrire notre réflexion dans la continuité de la pensée éthique de la responsabilité.

Plus globalement, concernant l’éthique, sur quels principes devrait reposer la réglementation de l’IA ? Pour quelle échelle : une juridiction mondiale ?

Nous sommes encore au début de cette juridiction mondiale qui commence par un positionnement européen mais pourrait être suivi plus largement. Le Partenariat mondial sur l’IA (GPAI) est une initiative internationale à laquelle je participe sur le futur du travail. Cette échelle pourrait être un tremplin vers plus de liens et d’accords entre démocraties.

Le GPAI a été créé en 2020 par la France et le Canada avec l’Australie, l’Union européenne, l’Allemagne, l’Inde, l’Italie, le Japon, le Mexique, la Nouvelle-Zélande, la République de Corée, Singapour, la Slovénie, le Royaume-Uni et les États-Unis d’Amérique.

Le GPAI est également multipartite et cherche à guider le développement et l’utilisation responsables de l’IA dans un esprit de respect des droits de l’Homme, d’inclusion, de diversité, d’innovation et de croissance économique. Afin d’atteindre cet objectif, les pays membres s’attachent à jeter des ponts entre la théorie et la pratique.

Vous souhaitez nous signaler une erreur ? Contactez la rédaction.