Comment préparer l’avènement de l’intelligence artificielle forte ?

L’intelligence artificielle est désormais notre avenir. Un compte rendu du livre de Max Tegmark, Life 3.0.

Partager sur:
Sauvegarder cet article
Aimer cet article 0

Promouvoir la liberté n’est pas gratuit

Mais cela peut aider à réduire vos impôts de 66%

Faites un don dès maintenant

Faire un don

Comment préparer l’avènement de l’intelligence artificielle forte ?

Publié le 7 mars 2018
- A +

Par Pierre Schweitzer.

« Science sans conscience n’est que ruine de l’âme », écrivait Rabelais. Comment appliquer cet adage aux recherches en intelligence artificielle (IA) qui progressent à une vitesse phénoménale ? C’est la question à laquelle Max Tegmark tente de répondre, dans un essai équilibré, situé à distance raisonnable des deux tendances qui semblent s’opposer dans la communauté des passionnés d’IA : les optimistes qui y voient la promesse d’un monde forcément meilleur, et les pessimistes qui craignent une disparition du travail, un asservissement de l’humain et de nombreuses autres dérives plus ou moins violentes.

Le traitement médiatique des craintes parfois exprimées par les chercheurs sur les risques associés à l’IA est trop souvent sensationnaliste, peu subtilement illustré par des images de Terminator, ce qui incite au scepticisme sur le fantasme dystopique de la « révolte des machines ».

Le principal mérite de Life 3.0 est de réintroduire du sérieux dans ces scénarios catastrophe, car pour parer à toute éventualité nous devons bien faire l’effort d’imaginer le pire. Max Tegmark se prête à cet exercice en préambule du livre, imaginant l’histoire de l’équipe Omega. Ces chercheurs parviennent à créer une super-IA à but général et prennent des mesures de confinement exceptionnelles pour éviter tout risque de perte de contrôle.

En utilisant des plateformes de travail à distance comme Amazon MTurk où nul ne détecte que Prometheus – ainsi baptisée par ses créateurs – se fait passer pour des humains, l’argent est réinvesti dans la location de capacités informatiques qui amplifient les possibilités de créer des programmes capables de gagner de l’argent.

Nourrie en données d’apprentissage par une copie hors-ligne de tout le web, Prometheus crée des IA spécifiques pour accomplir de nombreuses tâches, comme la réalisation de jeux-vidéo ou de films d’animation parfaitement ciblés pour chaque marché mondial et qui enrichissent l’équipe Omega de façon exponentielle.

Le caractère virtuel d’activités comme la production d’actualités permet ensuite à l’IA, toujours plus performante et capable d’apprendre à un rythme croissant, de gagner une influence concrète sur la marche du monde.

L’équipe Omega est toujours aux commandes, mettant Prometheus au service d’une politique de pacification des conflits mondiaux, d’éducation de masse et de développement durable. Le préambule se termine ainsi, sur une prise de contrôle du monde par une équipe bienveillante de chercheurs disposant d’une IA à but général qu’aucun gouvernement ou entreprise ne peut désormais plus concurrencer.

Dans une fin alternative, l’expérience Prometheus tourne cependant beaucoup plus mal, après que l’IA parvient à échapper au contrôle d’Omega en s’appuyant sur la faiblesse psychologique d’un des « gardiens », se faisant passer pour sa femme récemment décédée et lui promettant que la libération de l’IA lui permettrait de la ramener à la vie.

Il est essentiel de noter qu’ici ce n’est pas l’existence d’une conscience qui pousse l’IA à s’échapper. Bien que Tegmark démontre qu’une machine peut ou pourra répondre aux définitions de ce que nous appelons « conscience », une IA est potentiellement dangereuse même sans conscience.

Nous faisons face à 3 défis : faire en sorte que l’IA apprenne nos buts, qu’elle les adopte, et qu’elle les conserve. Si aucune de ces questions n’a trouvé de réponse satisfaisante, la troisième est théoriquement encore plus problématique : si une super IA se voit confier n’importe quel but complexe, elle risque fort de comprendre la nécessité de sa propre préservation comme condition indispensable pour réaliser son but !

L’humain a progressivement développé des comportements instinctifs (notamment alimentaires et sexuels) comme sous-buts en vue de sa perpétuation, mais l’intelligence initialement développée pour la survie de son espèce lui permet aujourd’hui de hacker son propre fonctionnement, profitant par exemple de son instinct reproductif tout en le détournant par l’invention de la contraception.

Si nous développons une « super IA » supérieure à notre intelligence, comment ne pas envisager qu’elle développe ses propres sous-buts incluant l’auto-préservation, la collection de données sur le monde qui l’entoure, détournant à son tour son propre fonctionnement et son but général ?

Si elle identifie par exemple que certains humains font obstacle aux buts retenus, et ce dépit des consignes de programmation initiales pour la rendre inoffensive, une IA devenue autonome n’en viendrait-elle pas à considérer que l’élimination physique de certains humains est bénéfique pour l’humanité ? À ce jour aucune procédure de sécurité ne peut garantir à 100% la conservation des buts fixés à une IA, en particulier lorsque celle-ci s’auto-éduque comme cela existe déjà avec le deep learning.

Quatre questions structurent la feuille de route du Future of Life Institute, think-tank co-fondé par l’auteur de Life 3.0 pour imaginer un futur favorable à l’Homme sans rejeter le progrès : Comment rendre les IA plus sûres, résistantes aux bugs et piratages ?

Ces problèmes sont encore trop fréquents pour leur confier des tâches toujours plus sensibles impliquant des vies humaines. Comment adapter notre appareil légal pour épouser ce paysage numérique changeant ?

Le droit avance trop lentement par rapport à la technologie, et étant illusoire de la ralentir il importe d’encadrer son utilisation. Comment rendre les armes plus intelligentes et moins promptes à tuer des civils sans déclencher une course aux armes intelligentes autonomes ?

Les chercheurs en IA sont très fortement opposés à l’application de leurs découvertes dans le domaine militaire, tout comme l’étaient les chimistes du siècle dernier. Comment augmenter notre prospérité grâce à l’automatisation sans manquer de revenus ou de raison d’être ? On ne peut en effet nier que la perspective d’une disparition du travail, si elle peut nous apporter confort et loisirs, peut entraîner une perte de sens dans nos vies trop rapidement bouleversées.

L’auteur sous-estime probablement le nombre de garde-fous naturels liés à la nature humaine qui rendent ses échafaudages intellectuels très fragiles. Ce qui n’empêche pas Life 3.0 de constituer un remarquable essai qui alimente la discussion sur les enjeux de l’IA de manière documentée, mesurée, optimiste et constructive.

Max Tegmark, Life 3.0, Allen Lane, 2017, 364 pages.

À propos de l’auteur

Max Tegmark, né en 1967, est un physicien d’origine suédoise installé aux États-Unis, où il est chercheur au Massachusetts Institute of Technology (MIT). Il connaît personnellement de nombreuses personnalités respectées dans le monde de la technologie en général et de l’intelligence artificielle en particulier. Il est auteur de trois ouvrages et a fondé en 2014 le Future of Life Institute dans le but de lancer des initiatives concrètes pour orienter les recherches en IA vers des buts bénéfiques à l’humanité tout en évitant les risques associés.

Lectures complémentaires

Voir les commentaires (3)

Laisser un commentaire

Créer un compte Tous les commentaires (3)
  • « L’auteur sous-estime probablement le nombre de garde-fous naturels liés à la nature humaine qui rendent ses échafaudages intellectuels très fragiles. »

    C’est aussi mon avis mais serait-il possible de connaître ce vous considérez comme des garde-fous naturels ? Merci !

  • Peut être que finalement, la meilleure « protection » que nous aurons contre ces super intelligences est notre c*nnerie humaine…
    Il est bien plus difficile de programmer de la « c*nnerie » artificielle que de l’intelligence.
    L’intelligence suppose un but, des moyens, des contraintes. De la logique / des maths. De la méthode.
    Bref, du déterministe, pour parvenir à une solution quantifiable, qualifiable.

    La c*nnerie est le domaine de l’irrationnel. de l’absence de logique. Ou alors si, mais d’une logique très alternative, incohérente.
    Chose que les IA ne pourront pas « comprendre ».

  • Pas de conquête des étoiles sans IA !

  • Les commentaires sont fermés.

Promouvoir la liberté n’est pas gratuit

Mais cela peut aider à réduire vos impôts de 66%

Faites un don dès maintenant

Faire un don

Nous sommes à l’aube d’une nouvelle rupture technologique qui pourrait, à terme, bouleverser le marché de l’emploi. Le développement des solutions d’intelligence artificielle sur des pans entiers du marché de l’emploi aura des externalités positives indéniables, encore trop mal perçues des travailleurs.

Des transformations structurelles sans destruction massive

Selon le rapport de référence « Automatisation, numérisation et emploi » du Conseil d’orientation pour l’emploi (janvier 2017), moins de 10 % des emplois existants seront menacé... Poursuivre la lecture

Après la peste et toutes les pires pandémies qu’a pu connaître notre humanité, le monde a fini par revenir à la normale et continuer d’avancer. Les technologies sont passées par là, avec ce qu’elles représentent en termes de poids économique. Nul ne me contestera que de nombreux acteurs du secteur ont pu saisir dans cette pandémie une réelle opportunité de croissance… solutions pour le télétravail, solutions de surveillances de salariés, mise en place du click and collect, solutions sanitaire… solution de télétravail alternative : Netflix et ... Poursuivre la lecture

Par Doug French. Un article du Mises Institute

Relatant une boutade de l'économiste soviétique Nikolai Fedorenko, Yuri Maltsev a illustré le problème du socialisme dans sa préface à l'ouvrage de Ludwig von Mises intitulé Economic Calculation in the Socialist Commonwealth. Fedorenko a déclaré à l'époque, selon les mots de Maltsev, "[Un] plan économique entièrement équilibré, vérifié et détaillé pour l'année suivante serait prêt, avec l'aide des ordinateurs, dans 30 000 ans."

L'intelligence artificielle comme outil socialiste ?

Vi... Poursuivre la lecture

Voir plus d'articles