Par Pierre Schweitzer.
“Science sans conscience n’est que ruine de l’âme”, écrivait Rabelais. Comment appliquer cet adage aux recherches en intelligence artificielle (IA) qui progressent à une vitesse phénoménale ? C’est la question à laquelle Max Tegmark tente de répondre, dans un essai équilibré, situé à distance raisonnable des deux tendances qui semblent s’opposer dans la communauté des passionnés d’IA : les optimistes qui y voient la promesse d’un monde forcément meilleur, et les pessimistes qui craignent une disparition du travail, un asservissement de l’humain et de nombreuses autres dérives plus ou moins violentes.
Le traitement médiatique des craintes parfois exprimées par les chercheurs sur les risques associés à l’IA est trop souvent sensationnaliste, peu subtilement illustré par des images de Terminator, ce qui incite au scepticisme sur le fantasme dystopique de la “révolte des machines”.
Le principal mérite de Life 3.0 est de réintroduire du sérieux dans ces scénarios catastrophe, car pour parer à toute éventualité nous devons bien faire l’effort d’imaginer le pire. Max Tegmark se prête à cet exercice en préambule du livre, imaginant l’histoire de l’équipe Omega. Ces chercheurs parviennent à créer une super-IA à but général et prennent des mesures de confinement exceptionnelles pour éviter tout risque de perte de contrôle.
En utilisant des plateformes de travail à distance comme Amazon MTurk où nul ne détecte que Prometheus – ainsi baptisée par ses créateurs – se fait passer pour des humains, l’argent est réinvesti dans la location de capacités informatiques qui amplifient les possibilités de créer des programmes capables de gagner de l’argent.
Nourrie en données d’apprentissage par une copie hors-ligne de tout le web, Prometheus crée des IA spécifiques pour accomplir de nombreuses tâches, comme la réalisation de jeux-vidéo ou de films d’animation parfaitement ciblés pour chaque marché mondial et qui enrichissent l’équipe Omega de façon exponentielle.
Le caractère virtuel d’activités comme la production d’actualités permet ensuite à l’IA, toujours plus performante et capable d’apprendre à un rythme croissant, de gagner une influence concrète sur la marche du monde.
L’équipe Omega est toujours aux commandes, mettant Prometheus au service d’une politique de pacification des conflits mondiaux, d’éducation de masse et de développement durable. Le préambule se termine ainsi, sur une prise de contrôle du monde par une équipe bienveillante de chercheurs disposant d’une IA à but général qu’aucun gouvernement ou entreprise ne peut désormais plus concurrencer.
Dans une fin alternative, l’expérience Prometheus tourne cependant beaucoup plus mal, après que l’IA parvient à échapper au contrôle d’Omega en s’appuyant sur la faiblesse psychologique d’un des “gardiens”, se faisant passer pour sa femme récemment décédée et lui promettant que la libération de l’IA lui permettrait de la ramener à la vie.
Il est essentiel de noter qu’ici ce n’est pas l’existence d’une conscience qui pousse l’IA à s’échapper. Bien que Tegmark démontre qu’une machine peut ou pourra répondre aux définitions de ce que nous appelons “conscience”, une IA est potentiellement dangereuse même sans conscience.
Nous faisons face à 3 défis : faire en sorte que l’IA apprenne nos buts, qu’elle les adopte, et qu’elle les conserve. Si aucune de ces questions n’a trouvé de réponse satisfaisante, la troisième est théoriquement encore plus problématique : si une super IA se voit confier n’importe quel but complexe, elle risque fort de comprendre la nécessité de sa propre préservation comme condition indispensable pour réaliser son but !
L’humain a progressivement développé des comportements instinctifs (notamment alimentaires et sexuels) comme sous-buts en vue de sa perpétuation, mais l’intelligence initialement développée pour la survie de son espèce lui permet aujourd’hui de hacker son propre fonctionnement, profitant par exemple de son instinct reproductif tout en le détournant par l’invention de la contraception.
Si nous développons une “super IA” supérieure à notre intelligence, comment ne pas envisager qu’elle développe ses propres sous-buts incluant l’auto-préservation, la collection de données sur le monde qui l’entoure, détournant à son tour son propre fonctionnement et son but général ?
Si elle identifie par exemple que certains humains font obstacle aux buts retenus, et ce dépit des consignes de programmation initiales pour la rendre inoffensive, une IA devenue autonome n’en viendrait-elle pas à considérer que l’élimination physique de certains humains est bénéfique pour l’humanité ? À ce jour aucune procédure de sécurité ne peut garantir à 100% la conservation des buts fixés à une IA, en particulier lorsque celle-ci s’auto-éduque comme cela existe déjà avec le deep learning.
Quatre questions structurent la feuille de route du Future of Life Institute, think-tank co-fondé par l’auteur de Life 3.0 pour imaginer un futur favorable à l’Homme sans rejeter le progrès : Comment rendre les IA plus sûres, résistantes aux bugs et piratages ?
Ces problèmes sont encore trop fréquents pour leur confier des tâches toujours plus sensibles impliquant des vies humaines. Comment adapter notre appareil légal pour épouser ce paysage numérique changeant ?
Le droit avance trop lentement par rapport à la technologie, et étant illusoire de la ralentir il importe d’encadrer son utilisation. Comment rendre les armes plus intelligentes et moins promptes à tuer des civils sans déclencher une course aux armes intelligentes autonomes ?
Les chercheurs en IA sont très fortement opposés à l’application de leurs découvertes dans le domaine militaire, tout comme l’étaient les chimistes du siècle dernier. Comment augmenter notre prospérité grâce à l’automatisation sans manquer de revenus ou de raison d’être ? On ne peut en effet nier que la perspective d’une disparition du travail, si elle peut nous apporter confort et loisirs, peut entraîner une perte de sens dans nos vies trop rapidement bouleversées.
L’auteur sous-estime probablement le nombre de garde-fous naturels liés à la nature humaine qui rendent ses échafaudages intellectuels très fragiles. Ce qui n’empêche pas Life 3.0 de constituer un remarquable essai qui alimente la discussion sur les enjeux de l’IA de manière documentée, mesurée, optimiste et constructive.
Max Tegmark, Life 3.0, Allen Lane, 2017, 364 pages.
À propos de l’auteur
Max Tegmark, né en 1967, est un physicien d’origine suédoise installé aux États-Unis, où il est chercheur au Massachusetts Institute of Technology (MIT). Il connaît personnellement de nombreuses personnalités respectées dans le monde de la technologie en général et de l’intelligence artificielle en particulier. Il est auteur de trois ouvrages et a fondé en 2014 le Future of Life Institute dans le but de lancer des initiatives concrètes pour orienter les recherches en IA vers des buts bénéfiques à l’humanité tout en évitant les risques associés.
Lectures complémentaires
- “Common sense, the Turing test, and the quest for real AI” (Hector Levesque, 2017)
- “Asilomar principles” (feuille de route collective pour le futur de l’IA, à l’initiative du Future of Life Institute, 2017) https://futureoflife.org/ai-principles/
- “L’ère du numérique (vol.1 chapitre 9 sur l’IA), J-P. Chamoux (dir.), ISTE editions, London, 2017-2018 (disponible en ebook)
- “Research priorities for robust and beneficial artificial intelligence : an open letter” (Future of Life Institute, 2015) https://futureoflife.org/ai-open-letter/
- “Recherches sur l’intelligence artificielle” (article de Yann Le Cun, voire également son cours), Collège de France. https://www.college-de-france.fr/site/yann-lecun/Recherches-sur-l-intelligence-artificielle.htm
“L’auteur sous-estime probablement le nombre de garde-fous naturels liés à la nature humaine qui rendent ses échafaudages intellectuels très fragiles.”
C’est aussi mon avis mais serait-il possible de connaître ce vous considérez comme des garde-fous naturels ? Merci !
Peut être que finalement, la meilleure “protection” que nous aurons contre ces super intelligences est notre c*nnerie humaine…
Il est bien plus difficile de programmer de la “c*nnerie” artificielle que de l’intelligence.
L’intelligence suppose un but, des moyens, des contraintes. De la logique / des maths. De la méthode.
Bref, du déterministe, pour parvenir à une solution quantifiable, qualifiable.
La c*nnerie est le domaine de l’irrationnel. de l’absence de logique. Ou alors si, mais d’une logique très alternative, incohérente.
Chose que les IA ne pourront pas “comprendre”.
Pas de conquête des étoiles sans IA !