Comment préparer l’avènement de l’intelligence artificielle forte ?

L’intelligence artificielle est désormais notre avenir. Un compte rendu du livre de Max Tegmark, Life 3.0.

Partager sur:
Sauvegarder cet article
Aimer cet article 0

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Comment préparer l’avènement de l’intelligence artificielle forte ?

Publié le 7 mars 2018
- A +

Par Pierre Schweitzer.

“Science sans conscience n’est que ruine de l’âme”, écrivait Rabelais. Comment appliquer cet adage aux recherches en intelligence artificielle (IA) qui progressent à une vitesse phénoménale ? C’est la question à laquelle Max Tegmark tente de répondre, dans un essai équilibré, situé à distance raisonnable des deux tendances qui semblent s’opposer dans la communauté des passionnés d’IA : les optimistes qui y voient la promesse d’un monde forcément meilleur, et les pessimistes qui craignent une disparition du travail, un asservissement de l’humain et de nombreuses autres dérives plus ou moins violentes.

Le traitement médiatique des craintes parfois exprimées par les chercheurs sur les risques associés à l’IA est trop souvent sensationnaliste, peu subtilement illustré par des images de Terminator, ce qui incite au scepticisme sur le fantasme dystopique de la “révolte des machines”.

Le principal mérite de Life 3.0 est de réintroduire du sérieux dans ces scénarios catastrophe, car pour parer à toute éventualité nous devons bien faire l’effort d’imaginer le pire. Max Tegmark se prête à cet exercice en préambule du livre, imaginant l’histoire de l’équipe Omega. Ces chercheurs parviennent à créer une super-IA à but général et prennent des mesures de confinement exceptionnelles pour éviter tout risque de perte de contrôle.

En utilisant des plateformes de travail à distance comme Amazon MTurk où nul ne détecte que Prometheus – ainsi baptisée par ses créateurs – se fait passer pour des humains, l’argent est réinvesti dans la location de capacités informatiques qui amplifient les possibilités de créer des programmes capables de gagner de l’argent.

Nourrie en données d’apprentissage par une copie hors-ligne de tout le web, Prometheus crée des IA spécifiques pour accomplir de nombreuses tâches, comme la réalisation de jeux-vidéo ou de films d’animation parfaitement ciblés pour chaque marché mondial et qui enrichissent l’équipe Omega de façon exponentielle.

Le caractère virtuel d’activités comme la production d’actualités permet ensuite à l’IA, toujours plus performante et capable d’apprendre à un rythme croissant, de gagner une influence concrète sur la marche du monde.

L’équipe Omega est toujours aux commandes, mettant Prometheus au service d’une politique de pacification des conflits mondiaux, d’éducation de masse et de développement durable. Le préambule se termine ainsi, sur une prise de contrôle du monde par une équipe bienveillante de chercheurs disposant d’une IA à but général qu’aucun gouvernement ou entreprise ne peut désormais plus concurrencer.

Dans une fin alternative, l’expérience Prometheus tourne cependant beaucoup plus mal, après que l’IA parvient à échapper au contrôle d’Omega en s’appuyant sur la faiblesse psychologique d’un des “gardiens”, se faisant passer pour sa femme récemment décédée et lui promettant que la libération de l’IA lui permettrait de la ramener à la vie.

Il est essentiel de noter qu’ici ce n’est pas l’existence d’une conscience qui pousse l’IA à s’échapper. Bien que Tegmark démontre qu’une machine peut ou pourra répondre aux définitions de ce que nous appelons “conscience”, une IA est potentiellement dangereuse même sans conscience.

Nous faisons face à 3 défis : faire en sorte que l’IA apprenne nos buts, qu’elle les adopte, et qu’elle les conserve. Si aucune de ces questions n’a trouvé de réponse satisfaisante, la troisième est théoriquement encore plus problématique : si une super IA se voit confier n’importe quel but complexe, elle risque fort de comprendre la nécessité de sa propre préservation comme condition indispensable pour réaliser son but !

L’humain a progressivement développé des comportements instinctifs (notamment alimentaires et sexuels) comme sous-buts en vue de sa perpétuation, mais l’intelligence initialement développée pour la survie de son espèce lui permet aujourd’hui de hacker son propre fonctionnement, profitant par exemple de son instinct reproductif tout en le détournant par l’invention de la contraception.

Si nous développons une “super IA” supérieure à notre intelligence, comment ne pas envisager qu’elle développe ses propres sous-buts incluant l’auto-préservation, la collection de données sur le monde qui l’entoure, détournant à son tour son propre fonctionnement et son but général ?

Si elle identifie par exemple que certains humains font obstacle aux buts retenus, et ce dépit des consignes de programmation initiales pour la rendre inoffensive, une IA devenue autonome n’en viendrait-elle pas à considérer que l’élimination physique de certains humains est bénéfique pour l’humanité ? À ce jour aucune procédure de sécurité ne peut garantir à 100% la conservation des buts fixés à une IA, en particulier lorsque celle-ci s’auto-éduque comme cela existe déjà avec le deep learning.

Quatre questions structurent la feuille de route du Future of Life Institute, think-tank co-fondé par l’auteur de Life 3.0 pour imaginer un futur favorable à l’Homme sans rejeter le progrès : Comment rendre les IA plus sûres, résistantes aux bugs et piratages ?

Ces problèmes sont encore trop fréquents pour leur confier des tâches toujours plus sensibles impliquant des vies humaines. Comment adapter notre appareil légal pour épouser ce paysage numérique changeant ?

Le droit avance trop lentement par rapport à la technologie, et étant illusoire de la ralentir il importe d’encadrer son utilisation. Comment rendre les armes plus intelligentes et moins promptes à tuer des civils sans déclencher une course aux armes intelligentes autonomes ?

Les chercheurs en IA sont très fortement opposés à l’application de leurs découvertes dans le domaine militaire, tout comme l’étaient les chimistes du siècle dernier. Comment augmenter notre prospérité grâce à l’automatisation sans manquer de revenus ou de raison d’être ? On ne peut en effet nier que la perspective d’une disparition du travail, si elle peut nous apporter confort et loisirs, peut entraîner une perte de sens dans nos vies trop rapidement bouleversées.

L’auteur sous-estime probablement le nombre de garde-fous naturels liés à la nature humaine qui rendent ses échafaudages intellectuels très fragiles. Ce qui n’empêche pas Life 3.0 de constituer un remarquable essai qui alimente la discussion sur les enjeux de l’IA de manière documentée, mesurée, optimiste et constructive.

Max Tegmark, Life 3.0, Allen Lane, 2017, 364 pages.

À propos de l’auteur

Max Tegmark, né en 1967, est un physicien d’origine suédoise installé aux États-Unis, où il est chercheur au Massachusetts Institute of Technology (MIT). Il connaît personnellement de nombreuses personnalités respectées dans le monde de la technologie en général et de l’intelligence artificielle en particulier. Il est auteur de trois ouvrages et a fondé en 2014 le Future of Life Institute dans le but de lancer des initiatives concrètes pour orienter les recherches en IA vers des buts bénéfiques à l’humanité tout en évitant les risques associés.

Lectures complémentaires

Voir les commentaires (3)

Laisser un commentaire

Créer un compte Tous les commentaires (3)
  • “L’auteur sous-estime probablement le nombre de garde-fous naturels liés à la nature humaine qui rendent ses échafaudages intellectuels très fragiles.”

    C’est aussi mon avis mais serait-il possible de connaître ce vous considérez comme des garde-fous naturels ? Merci !

  • Peut être que finalement, la meilleure “protection” que nous aurons contre ces super intelligences est notre c*nnerie humaine…
    Il est bien plus difficile de programmer de la “c*nnerie” artificielle que de l’intelligence.
    L’intelligence suppose un but, des moyens, des contraintes. De la logique / des maths. De la méthode.
    Bref, du déterministe, pour parvenir à une solution quantifiable, qualifiable.

    La c*nnerie est le domaine de l’irrationnel. de l’absence de logique. Ou alors si, mais d’une logique très alternative, incohérente.
    Chose que les IA ne pourront pas “comprendre”.

  • Pas de conquête des étoiles sans IA !

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Il faut sauver la liberté d’expression, comme nous l’avions évoqué, face à la prolifération des deepfakes en évoquant, avec le Dr Sylvie Blanco, Professor Senior Technology Innovation Management à Grenoble École de Management (GEM)  « le paradoxe du ChatBlanc » (cf. « Autopiégés par les deepfakes : où sont les bugs ? » Contrepoints, 11 février 2024 ) pris de vitesse, nous voilà mis devant ce terrible paradoxe : « réclamer en tant que citoyens la censure temporelle des hypertrucages pour préserver la liberté de penser et la liberté d’expressio... Poursuivre la lecture

1
Sauvegarder cet article

OpenAI, avec sa vision d'une IA géante et coûteuse, se retrouve face à des concurrents proposant des IA plus économiques.

OpenAI persiste et signe, pour le futur il faut une IA encore plus grosse que chatGPT-4. Son CEO, Sam Altman, réclame donc 50 milliards de dollars par an, après avoir déjà englouti 11 milliards dont 700 000 dollars par jour rien que pour les coûts des serveurs.

Le pape de l’IA est surtout de plus en plus seul dans sa vision d’IA gigantesque et coûteuse. La startup française Mistral a marqué le début d’une aut... Poursuivre la lecture

À quand des questions sur la recherche européenne dans les médias ? À quelques jours des élections européennes, les débats sur la recherche et l’innovation sont inexistants ! Il s’agit pourtant des fondamentaux européens. Dès 1972, la commission européenne a cherché à définir et à mettre en place une politique de recherche communautaire. Où en sommes-nous en 2024 ?

 

Des moyens et des résultats limités

Pourquoi la recherche est-elle absente des débats sur l’Europe, alors que partout ailleurs on parle des défis en matière d’... Poursuivre la lecture

Voir plus d'articles