Un algorithme peut-il parler d’éthique ?

Partager sur:
Sauvegarder cet article
Aimer cet article 0
Source https://unsplash.com/photos/FXFz-sW0uwo

Promouvoir la liberté n’est pas gratuit

Mais cela peut aider à réduire vos impôts de 66%

Faites un don dès maintenant

Faire un don

Un algorithme peut-il parler d’éthique ?

Publié le 7 mai 2019
- A +

Par Mark Esposito et Terence Tse.
Un article de The Conversation

Vous avez dit « machine morale » ? Au cours des dernières années, le MIT a mené l’enquête en ligne la plus vaste au monde pour découvrir comment une voiture autonome devrait réagir dans des situations extrêmes, un projet que l’on pourrait appeler la machine morale. L’étude a permis de parvenir à une conclusion simple : la façon dont vous pensez qu’une voiture devrait réagir dans une situation de vie ou de mort dépend de votre pays d’origine et des informations que vous détenez sur les piétons ou les passagers éventuellement impliqués.

Pour faire simple, la manière dont une personne souhaite que la voiture réagisse sera différente si le piéton est un enfant, une personne âgée ou un assassin. La voiture devrait-elle réagir en percutant le meurtrier pour ses crimes passés ? Ou percuter la personne âgée, un citoyen qui a déjà vécu une grande partie de sa vie ? Devrait-elle avoir accès aux archives publiques des casiers judiciaires ? Connaître votre âge ? Réagir au hasard pour éviter toute discrimination fondée sur les données disponibles ?

Quelques millisecondes pour décider

Ces questions sont normalement posées aux membres d’un tribunal ou lors d’une enquête judiciaire après l’accident. Mais dans le cas de la voiture autonome ce problème doit être résolu dans l’intervalle de temps entre la prise de décision et l’accident : soit quelques millisecondes, un délai souvent trop court pour prendre une décision en connaissance de cause. Et avec ce temps aussi court, ce qui compte n’est pas les informations que nous connaissons, mais celles que la voiture connaît. Alors, quelles informations une voiture devrait-elle connaître sur les personnes qui l’entourent ?

Il s’agit donc de déterminer quels principes une voiture devrait suivre et à quel moment. Plus fondamentalement, il s’agit de définir la relation fondamentale à venir entre les entreprises et les gouvernements. Différents constructeurs doivent-ils être mis en concurrence selon leur type de technologiques éthiques embarquées ?

Allons un peu plus loin encore. Que se passerait-il si une voiture chinoise, expédiée et utilisée aux États-Unis, était fabriquée avec des normes différentes de celles d’une voiture fabriquée aux États-Unis ? Imaginons que cette voiture chinoise et une voiture américaine soient sur le point d’entrer en collision. Si le système de conduite de la voiture chinoise est réglé avec des principes éthiques différents de celles du système de conduite de la voiture américaine, quel système sera-t-il utilisé ?

Bus chinois de nouvelle génération.
Bert van Dijk/Flickr, CC BY-NC 

Les différences qui émergent ne sont pas seulement culturelles, elles sont aussi juridiques. Les réglementations en matière de données entre les pays sont parfois très différentes, ce qui signifie que différents paramètres sont utilisés pour prendre des décisions autonomes. Par exemple, une voiture chinoise aura accès à des données relatives au « score social », pas disponible aux États-Unis.

En outre, les technologies peuvent également être différentes d’un constructeur automobile à l’autre, ce qui pourrait influencer fortement les prises de décision sur des considérations techniques principalement. Les cadres de régulation doivent prendre en compte ces questions pour déterminer où la responsabilité de la prise de décision commence et où elle se termine. La prise de décision incombe-t-elle à la ville, à la nation, ou autre ?

La voiture autonome constitue un exemple extrême de décision de vie ou de mort, mais l’enjeu est encore plus important si l’on considère les nuances d’inférences culturelles qu’il peut être nécessaire de comprendre correctement pour qu’une entreprise puisse effectuer des analyses et des suggestions raisonnables. La décision quant à la manière de diriger l’apprentissage de la machine et de tirer profit des différences sera confrontée à l’autonomie culturelle et, en définitive, à l’autonomie individuelle face aux décisions éthiques.

On peut facilement imaginer des entreprises tentant de se différencier en expliquant dans leurs publicités que la vie du conducteur sera privilégiée dans de telles situations. Mais même dans ce cas, la capacité de fournir cette garantie en cas de collision dépend de la capacité des voitures à communiquer efficacement, ce qui réaffirme la nécessité de coordination.

Auront-elles les mêmes spécifications éthiques ?
Tnarik Innael/Flickr, CC BY 

La limitation des systèmes de l’intelligence artificielle est qu’ils ne tolèrent pas l’ambiguïté. Concevoir un système ou une application d’intelligence artificielle, une application d’intelligence artificielle, requiert une certaine spécificité. La machine ne fera que ce que vous lui dites de faire. Cela signifie que les entreprises, les gouvernements et les fournisseurs doivent faire un choix explicite lors de la mise en place de réponses face à certaines situations ou lors de la conception d’un système qui demande à un individu d’assumer le poids de la décision.

Cette spécificité amène à se poser la question de la définition de la nouvelle génération de solutions d’intelligence artificielle autonome en intégrant la responsabilité algorithmique : comment ces décisions sont-elles prises et quel(s) groupe(s) doivent s’y impliquer ? L’enjeu n’est pas simplement éthique, c’est-à-dire ce que le véhicule devrait faire, mais il concerne également les « décisions morales » : comment « la voiture devrait… » doit être compris et formulée. Ce n’est pas une question qui peut être traitée de manière responsable par les entreprises seulement.

L’enjeu n’est pas d’adopter une résolution ultime, du moins pas pour le moment, mais il est de créer des systèmes capables de communiquer et de résoudre les problèmes avec différentes préférences éthiques, et de fabriquer les véhicules à partir de ce principe.

Accord international sur l’éthique

En fonction de la spécificité et des exigences liées à la navigation, il se peut que de telles décisions éthiques fondées sur des principes moraux exigent davantage que l’amélioration des relations entre l’entreprise et le public, ou entre entreprises ; il peut être plutôt nécessaire qu’un organe international décide des normes selon lesquelles de telles questions morales et éthiques sont traitées et soi-disant résolues, et qu’il les évalue.

Les voitures autonomes elles-mêmes auront besoin de la mise en place d’un accord international sur l’éthique de l’intelligence artificielle pour aider à standardiser les moyens de responsabilisation et la résolution de tels problèmes éthiques. Mais la question plus large de la responsabilité algorithmique, implique une diversité d’utilisations et de demandes allant bien au-delà des véhicules autonomes.

Fondamentalement, cela nous amène à cette question : lorsqu’elles utilisent des informations publiques, les entreprises ont-elles le droit de recourir à d’autres systèmes pour déterminer ce qui est important dans la prise de décisions cruciales, ou les décisions doivent-elles être simplement prises en fonction de l’emplacement du véhicule ?

À l’ère de l’intelligence artificielle, nous pensons que certains aspects des chaînes de valeur des entreprises, qu’il s’agisse de véhicules autonomes ou non, seront automatisés et accessibles à un point tel qu’ils ne seront plus considérés comme un domaine dans lequel nous pourrions essayer de rechercher un avantage concurrentiel. Parmi eux, nous devrions envisager d’inclure comment les entreprises prennent et résolvent des décisions éthiques. D’une manière ou d’une autre, de telles décisions seront prises.


Aurélie Jean, chercheuse en informatique computationnelle et fondatrice de la société Silico Veritas, a contribué à cet article.

Mark Esposito, Professor of Business & Economics at Hult International Business School & Harvard University’s Division of Continuing Education, Hult International Business School; Josh Entsminger, Senior research fellow, École des Ponts ParisTech (ENPC) et Terence Tse, Professor, ESCP Europe

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

The Conversation

Voir les commentaires (4)

Laisser un commentaire

Créer un compte Tous les commentaires (4)
  • « problèmes étiques à venir avec l’intelligence artificielle. »

    C’est vrai que c’est un peu maigrichon comme « science ».

  • Je ne vois pas le problème : si une voiture autonome écrase un enfant, vous l’arrêtez, faites un procès et la pendez à un arbre … comme on faisait au Moyen-Age avec les cochons qui bouffaient des mômes !

    Sinon, il y a aussi l’option de considérer que les voitures ne peuvent pas être autonomes tout comme les cochons ne peuvent pas être autonomes …

  • « Pour faire simple, la manière dont une personne souhaite que la voiture réagisse sera différente si le piéton est un enfant, une personne âgée ou un assassin. » Une voiture n’a pas à prendre ce genre de décisions, mais uniquement à suivre les règles qui assurent qu’elle n’écrasera personne, exactement comme un être humain. Je ne comprends pas l’intérêt de cet article.

    • Le camp de bien se limite plus à régenter ce que doivent faire et penser les citoyens : ils veulent maintenant inculquer la morale laïque, antispéciste, antiraciste, inclusive et solidaire aux machines …

  • Les commentaires sont fermés.

Promouvoir la liberté n’est pas gratuit

Mais cela peut aider à réduire vos impôts de 66%

Faites un don dès maintenant

Faire un don

Par Doug French. Un article du Mises Institute

Relatant une boutade de l'économiste soviétique Nikolai Fedorenko, Yuri Maltsev a illustré le problème du socialisme dans sa préface à l'ouvrage de Ludwig von Mises intitulé Economic Calculation in the Socialist Commonwealth. Fedorenko a déclaré à l'époque, selon les mots de Maltsev, "[Un] plan économique entièrement équilibré, vérifié et détaillé pour l'année suivante serait prêt, avec l'aide des ordinateurs, dans 30 000 ans."

L'intelligence artificielle comme outil socialiste ?

Vi... Poursuivre la lecture

Par Marc Bidan et Meriem Hizam.

Cette contribution évoque une drôle d’histoire. Il s’agit d’un simple grain de sable dans un scénario pourtant bien huilé. Ce grain de sable, cette anomalie, ce bug, cette erreur permet de replacer l’intelligence humaine au centre de ce qui est présenté – bien souvent par abus de langage – comme artificiel. Ainsi, même les robots sauront bientôt mentir !

À partir de ce paradoxe, cet article montre la persistance de la présence humaine dans l’intelligence artificielle. Il s’agit de dérouler et décr... Poursuivre la lecture

Les ganacheries tombant aussi aisément au sujet des algorithmes qu’à Gravelotte, trouver une nourriture de l’esprit équilibrée et éclairante relève de la tâche pascalienne. Aurélie Jean est de celle-ci. Mêlant pédagogie et nuance, elle fait entendre sa voix et ses messages aux quatre coins du globe, seule échelle à la mesure de cette globetrotteuse hyperactive.

À l’occasion de la sortie de son dernier ouvrage, Les algorithmes font-ils la loi ?, aux éditions de l’Observatoire, Aurélie Jean a répondu aux questions de Corentin Luce.

<... Poursuivre la lecture
Voir plus d'articles