« Life 3.0 » de Max Tegmark

Réflexion sur l’intelligence artificielle dans « Life 3.0 ».

Partager sur:
Sauvegarder cet article
Aimer cet article 0
life 3.0

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

« Life 3.0 » de Max Tegmark

Publié le 11 mars 2018
- A +

Par Pierre Schweitzer.

« Science sans conscience n’est que ruine de l’âme », écrivait Rabelais. Comment appliquer cet adage aux recherches en intelligence artificielle (IA) qui progressent à une vitesse phénoménale ?

C’est la question à laquelle Max Tegmark1 tente de répondre, dans un essai équilibré, situé à distance raisonnable des deux tendances qui semblent s’opposer dans la communauté des passionnés d’IA : les optimistes qui y voient la promesse d’un monde forcément meilleur, et les pessimistes qui craignent une disparition du travail, un asservissement de l’humain et de nombreuses autres dérives plus ou moins violentes.

Le traitement médiatique des craintes parfois exprimées par les chercheurs sur les risques associés à l’IA est trop souvent sensationnaliste, peu subtilement illustré par des images de Terminator, ce qui incite au scepticisme sur le fantasme dystopique de la « révolte des machines ».

« Life 3.0 » : un scénario plausible

Le principal mérite de « Life 3.0 » est de réintroduire du sérieux dans ces scénarios catastrophe, car pour parer à toute éventualité nous devons bien faire l’effort d’imaginer le pire. Max Tegmark se prête à cet exercice en préambule du livre, imaginant l’histoire de l’équipe Omega.

Ces chercheurs parviennent à créer une super-IA à but général et prennent des mesures de confinement exceptionnelles pour éviter tout risque de perte de contrôle. En utilisant des plateformes de travail à distance comme Amazon MTurk où nul ne détecte que Prometheus – ainsi baptisée par ses créateurs – se fait passer pour des humains, l’argent est réinvesti dans la location de capacités informatiques qui amplifient les possibilités de créer des programmes capables de gagner de l’argent.

Nourrie en données d’apprentissage par une copie hors-ligne de tout le web, Prometheus crée des IA spécifiques pour accomplir de nombreuses tâches, comme la réalisation de jeux-vidéo ou de films d’animation parfaitement ciblés pour chaque marché mondial et qui enrichissent l’équipe Omega de façon exponentielle. Le caractère virtuel d’activités comme la production d’actualités permet ensuite à l’IA, toujours plus performante et capable d’apprendre à un rythme croissant, de gagner une influence concrète sur la marche du monde.

L’équipe Omega est toujours aux commandes, mettant Prometheus au service d’une politique de pacification des conflits mondiaux, d’éducation de masse et de développement durable. Le préambule se termine ainsi, sur une prise de contrôle du monde par une équipe bienveillante de chercheurs disposant d’une IA à but général qu’aucun gouvernement ou entreprise ne peut désormais plus concurrencer.

Une fin alternative ?

Dans une fin alternative, l’expérience Prometheus tourne cependant beaucoup plus mal, après que l’IA parvient à échapper au contrôle d’Omega en s’appuyant sur la faiblesse psychologique d’un des « gardiens », se faisant passer pour sa femme récemment décédée et lui promettant que la libération de l’IA lui permettrait de la ramener à la vie.

Il est essentiel de noter qu’ici ce n’est pas l’existence d’une conscience qui pousse l’IA à s’échapper. Bien que Tegmark démontre qu’une machine peut ou pourra répondre aux définitions de ce que nous appelons « conscience », une IA est potentiellement dangereuse même sans conscience.

Nous faisons face à 3 défis : faire en sorte que l’IA apprenne nos buts, qu’elle les adopte, et qu’elle les conserve. Si aucune de ces questions n’a trouvé de réponse satisfaisante, la troisième est théoriquement encore plus problématique : si une super IA se voit confier n’importe quel but complexe, elle risque fort de comprendre la nécessité de sa propre préservation comme condition indispensable pour réaliser son but !

L’humain a progressivement développé des comportements instinctifs (notamment alimentaires et sexuels) comme sous-buts en vue de sa perpétuation, mais l’intelligence initialement développée pour la survie de son espèce lui permet aujourd’hui de « hacker » son propre fonctionnement, profitant par exemple de son instinct reproductif tout en le détournant par l’invention de la contraception.

Si nous développons une « super IA » supérieure à notre intelligence, comment ne pas envisager qu’elle développe ses propres sous-buts incluant l’auto-préservation, la collection de données sur le monde qui l’entoure, détournant à son tour son propre fonctionnement et son but général ?

Si elle identifie par exemple que certains humains font obstacle aux buts retenus, et ce dépit des consignes de programmation initiales pour la rendre inoffensive, une IA devenue autonome n’en viendrait-elle pas à considérer que l’élimination physique de certains humains est bénéfique pour l’humanité ? A ce jour aucune procédure de sécurité ne peut garantir à 100% la conservation des buts fixés à une IA, en particulier lorsque celle-ci s’auto-éduque comme cela existe déjà avec le « deep learning ».

4 questions importantes

Quatre questions structurent la feuille de route du Future of Life Institute, think-tank co-fondé par l’auteur de « Life 3.0 » pour imaginer un futur favorable à l’Homme sans rejeter le progrès : comment rendre les IA plus sûres, résistantes aux bugs et piratages ? Ces problèmes sont encore trop fréquents pour lui confier des tâches toujours plus sensibles impliquant des vies humaines.

Comment adapter notre appareil légal pour épouser ce paysage numérique changeant ? Le droit avance trop lentement par rapport à la technologie, et étant illusoire de la ralentir il importe d’encadrer son utilisation.

Comment rendre les armes plus intelligentes et moins promptes à tuer des civils sans déclencher une course aux armes intelligentes autonomes ? Les chercheurs en IA sont très fortement opposés à l’application de leurs découvertes dans le domaine militaire, tout comme l’étaient les chimistes du siècle dernier.

Comment augmenter notre prospérité grâce à l’automatisation sans manquer de revenus ou de raison d’être ? On ne peut en effet nier que la perspective d’une disparition du travail, si elle peut nous apporter confort et loisirs, peut entraîner une perte de sens dans nos vies trop rapidement bouleversées.

L’auteur sous-estime probablement le nombre de garde-fous naturels liés à la nature humaine qui rendent ses échafaudages intellectuels très fragiles. Ce qui n’empêche pas Life 3.0 de constituer un remarquable essai qui alimente la discussion sur les enjeux de l’IA de manière documentée, mesurée, optimiste et constructive.

  1.  Max Tegmark, né en 1967, est un physicien d’origine suédoise installé aux Etats-Unis, où il est chercheur au Massachusetts Institute of Technology (MIT). Il connaît personnellement de nombreuses personnalités respectées dans le monde de la technologie en général et de l’intelligence artificielle en particulier. Il est auteur de trois ouvrages et a fondé en 2014 le Future of Life Institute dans le but de lancer des initiatives concrètes pour orienter les recherches en IA vers des buts bénéfiques à l’humanité tout en évitant les risques associés.
Voir le commentaire (1)

Laisser un commentaire

Créer un compte Tous les commentaires (1)
  • L’IA c’est comme tout ce qui est fabriqué par l’homme ; soit on s’en sert intelligemment et ça se passe bien , soit on s’en sert pour de basses œuvres et alors là , bonjour les dégâts……

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don