Un algorithme peut-il parler d’éthique ?

Les voitures autonomes nous donnent un aperçu des problèmes étiques à venir avec l’intelligence artificielle.

Partager sur:
Sauvegarder cet article
Aimer cet article 0
Source https://unsplash.com/photos/FXFz-sW0uwo

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Un algorithme peut-il parler d’éthique ?

Publié le 7 mai 2019
- A +

Par Mark Esposito et Terence Tse.
Un article de The Conversation

Vous avez dit « machine morale » ? Au cours des dernières années, le MIT a mené l’enquête en ligne la plus vaste au monde pour découvrir comment une voiture autonome devrait réagir dans des situations extrêmes, un projet que l’on pourrait appeler la machine morale. L’étude a permis de parvenir à une conclusion simple : la façon dont vous pensez qu’une voiture devrait réagir dans une situation de vie ou de mort dépend de votre pays d’origine et des informations que vous détenez sur les piétons ou les passagers éventuellement impliqués.

Pour faire simple, la manière dont une personne souhaite que la voiture réagisse sera différente si le piéton est un enfant, une personne âgée ou un assassin. La voiture devrait-elle réagir en percutant le meurtrier pour ses crimes passés ? Ou percuter la personne âgée, un citoyen qui a déjà vécu une grande partie de sa vie ? Devrait-elle avoir accès aux archives publiques des casiers judiciaires ? Connaître votre âge ? Réagir au hasard pour éviter toute discrimination fondée sur les données disponibles ?

Quelques millisecondes pour décider

Ces questions sont normalement posées aux membres d’un tribunal ou lors d’une enquête judiciaire après l’accident. Mais dans le cas de la voiture autonome ce problème doit être résolu dans l’intervalle de temps entre la prise de décision et l’accident : soit quelques millisecondes, un délai souvent trop court pour prendre une décision en connaissance de cause. Et avec ce temps aussi court, ce qui compte n’est pas les informations que nous connaissons, mais celles que la voiture connaît. Alors, quelles informations une voiture devrait-elle connaître sur les personnes qui l’entourent ?

Il s’agit donc de déterminer quels principes une voiture devrait suivre et à quel moment. Plus fondamentalement, il s’agit de définir la relation fondamentale à venir entre les entreprises et les gouvernements. Différents constructeurs doivent-ils être mis en concurrence selon leur type de technologiques éthiques embarquées ?

Allons un peu plus loin encore. Que se passerait-il si une voiture chinoise, expédiée et utilisée aux États-Unis, était fabriquée avec des normes différentes de celles d’une voiture fabriquée aux États-Unis ? Imaginons que cette voiture chinoise et une voiture américaine soient sur le point d’entrer en collision. Si le système de conduite de la voiture chinoise est réglé avec des principes éthiques différents de celles du système de conduite de la voiture américaine, quel système sera-t-il utilisé ?

Bus chinois de nouvelle génération.
Bert van Dijk/Flickr, CC BY-NC 

Les différences qui émergent ne sont pas seulement culturelles, elles sont aussi juridiques. Les réglementations en matière de données entre les pays sont parfois très différentes, ce qui signifie que différents paramètres sont utilisés pour prendre des décisions autonomes. Par exemple, une voiture chinoise aura accès à des données relatives au « score social », pas disponible aux États-Unis.

En outre, les technologies peuvent également être différentes d’un constructeur automobile à l’autre, ce qui pourrait influencer fortement les prises de décision sur des considérations techniques principalement. Les cadres de régulation doivent prendre en compte ces questions pour déterminer où la responsabilité de la prise de décision commence et où elle se termine. La prise de décision incombe-t-elle à la ville, à la nation, ou autre ?

La voiture autonome constitue un exemple extrême de décision de vie ou de mort, mais l’enjeu est encore plus important si l’on considère les nuances d’inférences culturelles qu’il peut être nécessaire de comprendre correctement pour qu’une entreprise puisse effectuer des analyses et des suggestions raisonnables. La décision quant à la manière de diriger l’apprentissage de la machine et de tirer profit des différences sera confrontée à l’autonomie culturelle et, en définitive, à l’autonomie individuelle face aux décisions éthiques.

On peut facilement imaginer des entreprises tentant de se différencier en expliquant dans leurs publicités que la vie du conducteur sera privilégiée dans de telles situations. Mais même dans ce cas, la capacité de fournir cette garantie en cas de collision dépend de la capacité des voitures à communiquer efficacement, ce qui réaffirme la nécessité de coordination.

Auront-elles les mêmes spécifications éthiques ?
Tnarik Innael/Flickr, CC BY 

La limitation des systèmes de l’intelligence artificielle est qu’ils ne tolèrent pas l’ambiguïté. Concevoir un système ou une application d’intelligence artificielle, une application d’intelligence artificielle, requiert une certaine spécificité. La machine ne fera que ce que vous lui dites de faire. Cela signifie que les entreprises, les gouvernements et les fournisseurs doivent faire un choix explicite lors de la mise en place de réponses face à certaines situations ou lors de la conception d’un système qui demande à un individu d’assumer le poids de la décision.

Cette spécificité amène à se poser la question de la définition de la nouvelle génération de solutions d’intelligence artificielle autonome en intégrant la responsabilité algorithmique : comment ces décisions sont-elles prises et quel(s) groupe(s) doivent s’y impliquer ? L’enjeu n’est pas simplement éthique, c’est-à-dire ce que le véhicule devrait faire, mais il concerne également les « décisions morales » : comment « la voiture devrait… » doit être compris et formulée. Ce n’est pas une question qui peut être traitée de manière responsable par les entreprises seulement.

L’enjeu n’est pas d’adopter une résolution ultime, du moins pas pour le moment, mais il est de créer des systèmes capables de communiquer et de résoudre les problèmes avec différentes préférences éthiques, et de fabriquer les véhicules à partir de ce principe.

Accord international sur l’éthique

En fonction de la spécificité et des exigences liées à la navigation, il se peut que de telles décisions éthiques fondées sur des principes moraux exigent davantage que l’amélioration des relations entre l’entreprise et le public, ou entre entreprises ; il peut être plutôt nécessaire qu’un organe international décide des normes selon lesquelles de telles questions morales et éthiques sont traitées et soi-disant résolues, et qu’il les évalue.

Les voitures autonomes elles-mêmes auront besoin de la mise en place d’un accord international sur l’éthique de l’intelligence artificielle pour aider à standardiser les moyens de responsabilisation et la résolution de tels problèmes éthiques. Mais la question plus large de la responsabilité algorithmique, implique une diversité d’utilisations et de demandes allant bien au-delà des véhicules autonomes.

Fondamentalement, cela nous amène à cette question : lorsqu’elles utilisent des informations publiques, les entreprises ont-elles le droit de recourir à d’autres systèmes pour déterminer ce qui est important dans la prise de décisions cruciales, ou les décisions doivent-elles être simplement prises en fonction de l’emplacement du véhicule ?

À l’ère de l’intelligence artificielle, nous pensons que certains aspects des chaînes de valeur des entreprises, qu’il s’agisse de véhicules autonomes ou non, seront automatisés et accessibles à un point tel qu’ils ne seront plus considérés comme un domaine dans lequel nous pourrions essayer de rechercher un avantage concurrentiel. Parmi eux, nous devrions envisager d’inclure comment les entreprises prennent et résolvent des décisions éthiques. D’une manière ou d’une autre, de telles décisions seront prises.


Aurélie Jean, chercheuse en informatique computationnelle et fondatrice de la société Silico Veritas, a contribué à cet article.

Mark Esposito, Professor of Business & Economics at Hult International Business School & Harvard University’s Division of Continuing Education, Hult International Business School; Josh Entsminger, Senior research fellow, École des Ponts ParisTech (ENPC) et Terence Tse, Professor, ESCP Europe

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

The Conversation

Voir les commentaires (4)

Laisser un commentaire

Créer un compte Tous les commentaires (4)
  • « problèmes étiques à venir avec l’intelligence artificielle. »

    C’est vrai que c’est un peu maigrichon comme « science ».

  • Je ne vois pas le problème : si une voiture autonome écrase un enfant, vous l’arrêtez, faites un procès et la pendez à un arbre … comme on faisait au Moyen-Age avec les cochons qui bouffaient des mômes !

    Sinon, il y a aussi l’option de considérer que les voitures ne peuvent pas être autonomes tout comme les cochons ne peuvent pas être autonomes …

  • « Pour faire simple, la manière dont une personne souhaite que la voiture réagisse sera différente si le piéton est un enfant, une personne âgée ou un assassin. » Une voiture n’a pas à prendre ce genre de décisions, mais uniquement à suivre les règles qui assurent qu’elle n’écrasera personne, exactement comme un être humain. Je ne comprends pas l’intérêt de cet article.

    • Le camp de bien se limite plus à régenter ce que doivent faire et penser les citoyens : ils veulent maintenant inculquer la morale laïque, antispéciste, antiraciste, inclusive et solidaire aux machines …

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Par Yann Arnaud.

 

Composée de « bene » (le bien) et « volens » (de bon gré), la bienveillance désigne la volonté du bien. Initialement décrite dans le courant philosophique, elle s’est émancipée dans de nombreuses disciplines telles que la gestion des ressources humaines, l’éducation, la psychologie, et s’invite maintenant dans le domaine de l’intelligence artificielle (IA).

Aujourd’hui, l’IA et ses algorithmes sont omniprésents dans notre quotidien. La reconnaissance faciale, les chatbots, les assistants vocaux, le... Poursuivre la lecture

Depuis maintenant quelques mois, il ne se passe pas un jour sans que l'on parle de ChatGPT, l’interface conversationnelle développée par Open AI.

Lorsque l’outil est évoqué par les médias, les politiques, le grand public… c’est souvent avec une certaine forme de fascination entremêlée d’inquiétude, tant son modus vivendi, ses fonctionnalités, peuvent impacter notre quotidien et bouleverser nos sociétés, ne serait-ce que dans le domaine de l’éducation, ainsi que tout métier et activité liés à la rédaction.

Notons et portons à con... Poursuivre la lecture

En novembre dernier, alors que les artistes avaient déjà découvert depuis quelques mois la puissance de l’intelligence artificielle avec MidJourney, le grand public faisait connaissance de ChatGPT et ses surprenantes capacités de dialogue. En quelques semaines, le gros modèle de langage occupait tous les esprits.

Pensez donc : voilà que déboule un outil capable de distribuer des informations de façon facilement digérable, apte à se mettre au même niveau que son interlocuteur, dans un dialogue poli et courtois ! Difficile de faire plus ... Poursuivre la lecture

Voir plus d'articles