Par Karl Eychenne.
« Anesthésie : plaie sans douleurs ; neurasthénie : douleurs sans plaies ». Karl Krauss, en son temps (1874 – 1936), avait peut-être trouvé la bonne ligne de démarcation entre l’humain plutôt neurasthénique et le robot plutôt anesthésique.
Quelques précautions d’usage quand même avant de sonder la bête ; il faut se garder de tout :
- Anthropocentrisme : considère que tout tourne autour de nous, que l’humain est le bon référentiel pour voir le reste. Eh bien non, le Soleil ne tourne pas autour de la Terre, qui n’est d’ailleurs pas plate.
- Fonctionnalisme : considère que seul le contenu est important, peu importe l’emballage ; ainsi naquit la métaphore cerveau-ordinateur. Sujet clivant, mais toujours pas de conscience sur une clef USB.
- Subjectivisme : considère que nous pouvons savoir « ce que cela fait d’être une chauve-souris » (T. Nagel). Eh bien on ne sait pas trop, la chauve-souris ne nous a rien dit.
- Charlatanisme : c’est plus fort que nous, alors tant pis, faisons comme si l’automate était un humain comme les autres, envieux, jaloux, méfiant, aigri, angoissé, suicidaire, apathique, psychopathe.
Mon robot est jaloux
Le progrès serait confiscatoire, il nous prendrait nos métiers, et nous laisserait les miettes. Il faut dire que l’IA ne badine pas avec le temps qui passe : pas un instant sans produire de l’utile. À nous l’inutile, qui ne sert à rien par définition. Cet inutile fait sourire notre robot, mais il existe un inutile particulier, plus subtil, qui interroge notre robot, un inutile qui lui fait penser qu’il y a quelque chose qui lui manque plutôt que quelque chose qu’il a en plus :
- Paradoxe du votant, au fondement de nos démocraties : notre robot ne votera probablement jamais, car son vote pèserait trop peu par rapport à la masse de robots votants.
- Le jeu du Brexit : notre robot n’aurait probablement jamais voté un Brexit. Reconnaissant des failles européennes, il aurait toutefois été incapable d’en apprécier le ressenti si négatif.
- L’axiome du Gilet jaune : notre robot est programmé pour refuser les mauvaises solutions proposées, et quand même accepter les bonnes, mais pas pour refuser toutes les solutions.
- La mouche au fond de la cuvette : destinée à « orienter » le choix d’un individu, la mouche est ce que l’on nomme un nudge (R. Talher) ; pas sûr que notre robot soit sensible à l’incitation.
- La vieille femme agressée dans le métro : voyant ses amis robots impassibles, notre robot n’ira probablement jamais secourir la vieille femme agressée, alors que l’humain parfois le fera.
- Que faire des données : les premiers robots déduisaient trop, les robots 2.0 induisent trop. Le deep learning prend le passé pour argent comptant, et s’expose à une dictature de l’Histoire.
- L’humain sait ce qu’il y a hors de la chambre chinoise (J. Searle), pas le robot qui pourrait très bien traduire un livre dans une autre langue, sans en comprendre un seul mot.
- L’humain sait qu’il est sous la tache blanche du test du miroir, il a conscience de son existence. Le robot voit la tache, la reconnaît sur lui, mais n’a pas conscience d’être lui-même.
Mon robot est angoissé
Qu’est ce qui peut bien angoisser un robot ? Journée d’un robot au bord du suicide logique :
- Imaginez un robot en train d’attendre le bus qui n’arrive pas. Le robot attend encore un peu, mais toujours rien. En bon robot, il calcule le temps qu’il a déjà perdu en attendant et celui qu’il aurait mis en partant à pied. Plus le temps passe, plus ce calcul l’obsède. Malheureusement pour lui, il n’aura aucun moyen de savoir s’il faut partir maintenant ou attendre. Notre robot ne sait pas, mais il ne peut pas en conclure qu’il sait que pas : ne pas savoir est différent de savoir que pas. Il s’agit là d’un problème bien connu chez nos amis logiciens et informaticiens : le problème de la Halte (Alan Turing, 1936)
- Quand même, imaginez que notre robot voit son ami robot passer en voiture, ce dernier acceptant de le déposer à destination, la bibliothèque. Notre robot peut enfin aller emprunter le livre demandé par son maître. Horreur. Il s’avère que livre recherché est « le livre contenant la liste de tous les livres qui ne se citent pas eux-mêmes… ». L’humain plutôt taquin sait très bien qu’il s’agit là d’un piège mathématique (Paradoxe de Russell, 1901) dont un automate ne ressort pas indemne. L’humain est taquin mais pas vilain, il a bien pris soin de vérifier que la bibliothèque était fermée ce jour.
- Notre robot peut donc rentrer chez lui, à pied cette fois. Mais avant, un petit en-cas afin de se remettre de ses émotions. Tiens, ce magasin prétend vendre un paquet de gâteaux qu’on ne termine jamais. Pourtant, je le tiens bien dans ma main, il est bien fini. Notre robot mange, mange, des gâteaux de toutes les tailles, qui se ressemblent plus ou moins, mais effectivement pas moyen d’en voir la fin. Il tente alors de faire l’inventaire de tous les gâteaux dans cette boîte, mais à chaque fois qu’il croit avoir terminé, un autre gâteau différent des autres se construit à partir de tous ceux qui étaient en diagonale ! (Diagonale de Cantor, 1891).
- Désespéré, notre robot tente de retrouver l’apaisement dans des prières formelles. C’est là qu’il rencontre un robot sans domicile fixe, un robot qui a fait le choix de tout abandonner parce qu’il venait d’apprendre qu’il ne saura jamais s’il parle un langage cohérent… C’est le résultat des 2 théorèmes d’incomplétude de Gödel (1931) : notre robot peut utiliser son langage mathématique a priori cohérent pour produire des énoncés dont l’humain lui a dit qu’ils étaient vrais ou faux, mais il sera impossible au robot de le prouver à l’aide de ce même langage. Coup de grâce, parmi ces énoncés indémontrables, le fameux « les mathématiques sont-elles un langage cohérent »… impossible à savoir à partir de ce même langage.
Comment sortir de l’impasse ? Le Prozac du robot sera l’intervention de l’être humain appuyant sur escape ou bien ayant programmé une fin de la boucle à la requête initiale, au bout d’un certain temps.
Mon robot a le cœur sec
Le robot peut imiter l’émotion, mais il ne peut pas la vivre. Imaginons que notre robot ait réussi le jeu de l’imitation d’Alan Turing : nous sommes alors devant quelqu’un que nous considérons comme humain, mais qui nous dit ne rien ressentir du tout. Deux explications sont alors possibles :
- Soit il est atteint d’alexithymie, l’incapacité de reconnaître ses propres émotions, malgré le fait qu’elles sont bien présentes : battements cardiaques accélérés, présence de sueur à la surface de sa peau. Tout se passe comme si la personne ne pouvait en prendre conscience.
- Soit il est psychopathe : manque d’empathie, d’émotions. On lui fait alors subir le fameux test psychologique de la Triade noire, regroupant le narcissisme, le machiavélisme et la psychopathie. D’ordinaire, on y retrouve en bonne place les personnes occupant un poste à haute responsabilité, les avocats, les traders, et donc également les psychopathes.
A priori, notre robot ressemble davantage au psychopathe qu’à l’alexithymique. Une des caractéristiques du psychopathe est son incapacité à discerner le bien du mal, il est un genre d’âne de Buridan éthique. Heureusement, c’est son père l’humain qui est censé décider par quelques lignes de programmes ce qui distingue le bien du mal. Mais même cela pose quelques problèmes, avec le cas d’école désormais célèbre de la voiture qui doit choisir entre écraser la vieille dame ou le jeune écolier : il se trouve que selon les cultures, les pays, les critères retenus, et la quantité d’informations disponibles dans un temps relativement court, la décision de la voiture ne sera pas la même. Comme faire ? Laisser la voiture choisir au hasard ferait partie des solutions proposées… Ouf, dit notre robot bien content de ne pas avoir à trancher la question du bien et du mal.
Conclusion : les androïdes rêvent-ils de moutons électriques ?
Philip K. Dick avait donc déjà tout compris dans son œuvre majeure en 1966, inspirant le mythique Blade Runner en 1982, et l’androïde Rachel capable d’éprouver des émotions et apprenant sa vraie nature. Pourtant, on avait bien pris soin de lui implanter de faux souvenirs, un genre de faits alternatifs contemporains.
Bientôt, il est dit que les robots seront partout, sur les routes, dans nos maisons, et parfois même dans nos cœurs, puisque l’on parle de robots intimes, très intimes. Ainsi, le robot deviendrait un véritable couteau suisse opérationnel et émotionnel, à manier avec éthique et sagesse.
rien compris. Soit je suis bête (mais j’ai un doute à ce sujet), soit c’est extrêmement mal écrit.