Intelligence artificielle : la voiture autonome face au dilemme du piéton

Artificielle oui, intelligence peut-être. Peut-on mettre l’éthique en pilote automatique ?

Les voitures de demain n’auront pas seulement une meilleure autonomie ; elles auront leur autonomie. Elles auront des passagers, mais pas de conducteur. L’idée peut être inquiétante au premier abord, mais il y a fort à parier que nous refuserons un jour de monter à bord d’une voiture conduite par un humain. Si cette voiture arrive.

La machine à vapeur et la machine à calculer

La voiture autonome est un bon exemple de ce que l’intelligence artificielle peut nous apporter. Conduire une voiture est une tache complexe ; le pilote automatique pourra percevoir et analyser un environnement qui change à chaque mètre parcouru, anticiper les réactions du véhicule et des autres conducteurs, le tout en suivant le meilleur itinéraire. Avec de telles facultés, il n’est pas difficile d’imaginer les robots effectuant d’autres taches. Chirurgien ? Bibliothécaire ? Commerçant ? Agriculteur ? Un jour remplacés, peut-être.

By: Les ChatfieldCC BY 2.0

Comme la domestication a remplacé le travail manuel, la cueillette et la marche à pied – pour être remplacée par la machine à vapeur, le moteur à explosion, l’électricité et tout le reste. S’il y avait beaucoup d’emploi chez les premiers hommes, c’est parce que le travail rapportait peu – il fallait dépenser beaucoup d’énergie pour s’alimenter. Puis, le rendement s’est amélioré, et des « emplois » dans l’agro-alimentaire ont disparu. Ce qui a permis le développement de l’artisanat, du commerce, etc. Difficile pour autant d’affirmer qu’il y avait plus d’emploi : l’humanité n’a jamais été aussi nombreuse, aussi riche et fait autant de choses.

L’intelligence artificielle est déjà là. Il y a plus d’ordinateurs dans les bureaux, mais y a-t-il moins de gens ? Comme toute technique et technologie, elle crée plus d’emplois qu’elle n’en détruit. Dans les banques, les guichets automatiques ont réduit le coût d’activités à faible valeur ajoutée (compter les billets et enregistrer la transaction). Outre le fait qu’ils sont accessibles jour et nuit et réduisent les risques pour la banque, ils sont peu coûteux (on peut en mettre partout) et libèrent le temps des conseillers, qui peuvent solliciter plus longuement leurs clients pour ouvrir des comptes, placer leur épargne et souscrire des assurances et crédits. Youpi.

Sarah Connor ?

By: Brian TurnerCC BY 2.0

Tous les métiers seront-ils remplaçables ? Mieux vaut espérer que le plus vieux métier du monde – soldat – ne le sera pas. Des robots pour protéger les hommes, mais de qui ? Faudra-t-il leur inculquer le nationalisme ? Se mettront-ils à protéger l’humanité d’elle-même, contre son gré et de force (I, Robot) ? Ou voudront-ils tout simplement nous exterminer (Terminator, 2001 : l’Odyssée de l’Espace) ?

Le fantasme d’Hollywood d’une intelligence artificielle hors de contrôle est la version 2.0 de la créature de Frankenstein. Cette fiction a 200 ans, et Elon Musk, Steven Hawking et Bill Gates, qui n’ont pas la réputation de porter des chapeaux en aluminium, lui ont donné du crédit. Si nous jouons les apprentis-sorciers, notre créature pourrait nous échapper. Mais qu’elle nous échappe ou non, peut-on confier à une intelligence artificielle le droit de vie et de mort sur un humain ?

Dans cette situation : A. Je tue le piéton, B. Je tue mes passagers

By: Travis WiseCC BY 2.0

C’est ce qui ralentit la voiture autonome. La technologie est prête, mais pas nous. La route n’est pas un champ de bataille, mais un pilote automatique peut être lui aussi confronté à des questions morales. Si la voiture se trouve devoir choisir entre

  • écraser un piéton, et
  • conduire ses passagers à une mort certaine en sortant de la route,

que doit-elle faire ? Peut-on la laisser décider ? Et si c’est seulement possible, peut-elle nous confier le volant au moment fatidique, où nous saurions que selon ses calculs nous avons une vie entre les mains ? La question morale soulevée par la voiture autonome a 50 ans. Le dilemme du piéton est la version 2.0 du dilemme du tramway :

Vous conduisez une rame de tramway lancée à pleine vitesse quand, soudain, vous réalisez que des gens travaillent sur la voie. Vous allez les écraser.

  • Si vous ne faites rien, vous allez en écraser 5.
  • Si vous tournez à droite, vous n’en tuerez qu’un.

Que feriez-vous ?

Le cycle des robots, le cycle éternel ?

Dans son exploration visionnaire du thème des robots, Isaac Asimov imaginait un système d’exploitation éthique1 composé de Trois Lois garantissant l’innocuité des robots.

Si un robot ne peut décider en fonction de son éthique robotique, il se bloque. En théorie, ça fonctionne. Mais en pratique, ça ne fonctionne pas comme ça : le robot exécute et prend les décisions qui s’imposent pour atteindre son but, mais ne décide pas de son but. Nous sommes son créateur, nous sommes aussi son maître. Nous ne pouvons pas le rendre pleinement autonome ; l’intelligence artificielle n’existe pas.

By: Oliver PonsoldCC BY 2.0

Ce n’est pas vraiment de moi, mais de Leibniz. L’idée a 300 ans. C’est nous qui concevons, programmons, développons, utilisons l’intelligence artificielle ; elle n’a rien d’artificiel, c’est la nôtre. Et, dans la mesure où elle n’est qu’un outil – comme un microscope est un outil pour l’œil – elle n’est peut-être qu’une augmentation de notre intelligence, sans existence propre.

Robot, je suis ton père

L’intelligence artificielle n’existera donc jamais réellement si elle n’existe pas indépendamment de nous. Elle sera bien artificielle tant qu’elle n’aura pas appris à exister sans nous – c’est à peine si nous pouvons la laisser apprendre sans nous. Pourra-t-elle apprendre à se fixer des objectifs ? à poser des questions ? pourra-t-elle apprendre à faire de l’humour ? à raconter des histoires ?

Mais quand saura-t-on qu’elle est intelligente ? Nous en savons finalement peu sur l’intelligence, à part qu’elle est multiple2 et difficile à définir.

By: Ray MacLeanCC BY 2.009

Parmi les questions soulevées par l’intelligence artificielle, celle de l’intelligence multiple est la plus récente : elle n’a que 30 ans. Soit à peu près moitié moins que l’intelligence artificielle moderne, conçue pendant la Seconde Guerre Mondiale. Ou 10 fois moins que ses précurseurs les plus anciens, la Pascaline et le cylindre cannelé de Leibniz.

Les robots n’ont ni éthique ni intelligence (mais ils auront leur taxe). Nous leur prêtons les nôtres, mais celle de qui précisément ? Peut-on s’accorder sur ce qui est éthique, ce qui est moral, si notre premier réflexe est d’en faire une arme-soldat ?

Parviendrons-nous à nous adapter aux évolutions qui viennent au rythme où elles arriveront ? Y aura-t-il des métiers de demain pour tout le monde ?

  1. Dans les dents, Karl Marx
  2. Il y aurait une intelligence verbo-linguistique / logico-mathématique / spatiale / intra-personnelle / interpersonnelle / corporelle-kinesthésique / musicale-rhytmique / naturaliste-écologiste / existentielle, et d’autres encore