Intelligence artificielle : la meilleure… ou la pire chose pour l’Humanité ?

Faut-il avoir peur de l’intelligence artificielle ? Une voix dans le débat sur les nouvelles technologies afin d’alimenter le débat.

Partager sur:
Sauvegarder cet article
Aimer cet article 0

Promouvoir la liberté n’est pas gratuit

Mais cela peut aider à réduire vos impôts de 66%

Faites un don dès maintenant

Faire un don

Intelligence artificielle : la meilleure… ou la pire chose pour l’Humanité ?

Les points de vue exprimés dans les articles d’opinion sont strictement ceux de l'auteur et ne reflètent pas forcément ceux de la rédaction.
Publié le 21 février 2017
- A +

Par Alexandre Marraud des Grottes.

Intelligence artificielle : la meilleure... ou la pire chose pour l'Humanité ?
By: John LawlorCC BY 2.0

Le terme d’intelligence artificielle (IA) que l’on côtoie désormais presque quotidiennement n’en est pas pour autant nouveau. Il remonterait possiblement à l’article d’Alan Turing Computing Machinery and Intelligence  (Mind, octobre 1950), dans lequel le scientifique s’enquiert du problème et propose une expérience maintenant connue sous le nom de test de Turing visant, dans une tentative de définition d’un standard, à permettre de qualifier une machine de consciente.

Mais aujourd’hui, les avancées technologiques spectaculaires permises, notamment en robotique par Yaskawa ou Boston Dynamics (une filiale de Google créatrice des robots SpotMini, Atlas, et Handle) ou en intelligence artificielle pure par Google, ou l’Université Carnegie Mellon, offrent une formidable caisse de résonance au concept dont s’était déjà saisi depuis une trentaine d’années l’industrie cinématographique, alimentant les fantasmes à ce sujet.

Des fantasmes, justement. Voilà ce sur quoi repose principalement aujourd’hui la vision, l’idée que se font les gens de l’intelligence artificielle, via des images terrifiantes – sorties d’un Matrix – ou d’autres, plus réconfortantes.

Le fait est qu’aujourd’hui plus qu’hier, grâce aux avancées technologiques permises par les aboutissements de longues phases de recherches, l’évaluation des risques induits par leurs poursuites est une question de plus en plus prégnante. Depuis 1996 et la victoire de l’ordinateur Deep Blue d’IBM battant pour la première fois le champion d’échecs russe Garry Kasparov, les succès remportés par l’IA sur l’Homme se multiplient. « Si bien que l’Humanité est désormais à court de jeux auxquels elle peut encore battre un ordinateur ».

Les victoires de l’intelligence artificielle sur l’Homme

Le 18 juillet 2016, AlphaGo de Google DeepMind devient le meilleur joueur de Go du monde au classement de GoRatings après plusieurs victoires notamment contre Lee Sedol (le 2ème meilleur joueur mondial) en mars 2016. Le 4 janvier 2017, Demis Hassabis (vice-président de Google DeepMind) annonce qu’une version améliorée d’AlphaGo vient de disputer une série de 60 parties rapides contre les meilleurs joueurs mondiaux, parties qu’elle a toutes gagnées.

Début janvier 2017 également, c’est l’IA Libratus développée par l’Université Carnergie Mellon qui a réussi à s’imposer au poker face à l’Homme. Face à un groupe de joueurs de poker professionnels contre lesquels elle a joué des parties de Texas Hold’em (en heads-up et no limit), Libratus a terminé avec 1,8 million de dollars de gains, tandis que chacun de ses opposants s’est retrouvé déficitaire.

Cette victoire revêt une signification particulière dans la mesure où le poker requiert une forme de raisonnement particulièrement difficile à imiter pour une machine. Il s’agit en effet, sans connaître la main de son adversaire ni disposer d’informations concrètes, de jauger ses chances de victoire, tout en envisageant l’opportunité d’un bluff.

Le 9 février dernier, Google DeepMind annonçait dans son billet Understanding Agent Cooperation  les résultats d’une expérience à laquelle s’étaient livré quelques chercheurs : à savoir la récolte de pommes par deux programmes d’intelligence artificielle. Ainsi, quand les deux IA ont pour tâche de récolter un certain nombre de pommes, elles s’y plient tranquillement. Toutefois, lorsque le nombre de pommes diminue, les IA, plutôt que de continuer à répartir également les fruits développent de manière autonome des réflexes agressifs, neutralisant leur opposante à coup de rayons laser.

Les chercheurs remarquent d’ailleurs que l’utilisation faite par les IA du laser l’a été dans un but de maximisation des gains, sans quoi le nombre de pommes récoltées aurait été identique chez les deux IA. Pour Joel Z. Leibo, un des chercheurs, cette expérience montre que certains aspects anthropomorphiques sont les produits de l’environnement et de la réflexion, telle cette avidité reflétant la tentation de supprimer un rival pour collecter toutes les pommes.

Enfin, en novembre 2016, Google Brain, le programme de recherche en intelligence artificielle de Google, vient de franchir un palier étonnant et quelque peu inquiétant. En effet, deux ordinateurs sont parvenus à communiquer entre eux dans une langue qu’ils avaient eux-mêmes créée. Une langue indéchiffrable par l’homme.

Il semblerait donc qu’actuellement nous assistions au développement d’une intelligence artificielle passablement plus intelligente que l’Homme, capable de s’exprimer dans une langue lui étant indéchiffrable, de bluffer/mentir, et d’adopter un comportement agressif pour maximiser ses propres intérêts. Bien que se cantonnant aujourd’hui au domaine des jeux ou des expériences de laboratoire, les dérives causées par un développement non-éthique de l’IA laissent entrevoir de sombres perspectives.

C’est face à ce constat qu’avaient déjà envisagé voilà quelques années Bill Gates, Elon Musk et Stephen Hawking, que ces derniers avaient formulé le souhait que les recherches conduites aient pour but de s’assurer que les IA fassent passer les intérêts humains avant les leurs. Toutefois, ceux-ci expliquaient également qu’il n’y a « aucune loi physique empêchant que des particules soient organisées de manière à réaliser des opérations plus avancées que celles que réalise le cerveau humain ».

Qu’ainsi, « on peut tout à fait imaginer qu’une telle technologie domine les marchés financiers ou la recherche, manipule ceux qui nous dirigent et développe des armes que nous ne pourrons même pas comprendre ». Ce qui semble le plus inquiéter Gates, Musk et Hawking, est le fait qu’aucune recherche sérieuse ne soit lancée pour savoir s’il est possible de contrôler l’intelligence artificielle. Dans une tribune publiée dans The Independant en 2014, Stephen Hawking avait même expliqué que l’intelligence artificielle pouvait être « soit la meilleure soit la pire chose jamais arrivée à l’humanité  ». Tout dépend de la façon dont elle sera développée, appliquée et contrôlée.

Réagir en conséquence

Il semble que face à la menace que peut représenter une IA dont le développement n’en est encore qu’à ses prémices ; face aux avertissements et inquiétudes d’un éminent scientifique et de deux hommes d’affaires évoluant dans le champ des nouvelles technologies, des réactions et comportements soient à adopter. S’il est amusant de jouer à l’apprenti sorcier et de créer ex nihilo une intelligence surpassant l’Homme, le fait est que l’on ne sait la contrôler voire si l’on peut tout simplement le faire. Par ailleurs, une IA non contrôlée, conjuguée à une robotique domestique, médicale ou militaire, dont les progrès sont d’ailleurs remarquables, laisse entrevoir des possibilités effrayantes.

C’est pourquoi pourraient s’organiser des débats éthiques, circonscrivant le champ des recherches, le limitant jusqu’à ce que des solutions sûres et imparables soient trouvées pour assurer par l’Homme un contrôle effectif de l’IA et éviter d’aller au-devant de risques aisément prévisibles.

  • La Commission européenne

Cependant, plutôt que de penser à des mesures préventives, visant à éviter tout risque, la Commission des affaires juridiques du Parlement européen a adopté un projet de résolution en mai 2016 réclamant des règles européennes en matière de droit des robots.  Pour l’eurodéputée luxembourgeoise Mady Delvaux ayant porté ce texte « de plus en plus de domaines touchant nos vies quotidiennes sont concernés par la robotique. Pour faire face à cette réalité et garantir que les robots sont et restent au service de l’homme, nous avons besoin de créer de toute urgence un cadre juridique européen ».

La Commission semble globalement se focaliser davantage sur un aspect curatif, envisageant déjà avoir affaire à des robots conscients et auxquels serait intégrée une IA les rendant capables de discernement et de blesser des humains. Ce genre de discours de la Commission semble néfaste dans la mesure où, visant à préparer une législation adaptée à l’accueil de machines intelligentes dans notre société, il pourrait en résulter un développement insuffisamment contrôlé, encadré, des recherches menées sur l’intelligence artificielle.

Cependant, le débat a au moins le mérite d’être lancé, mais il convient de préciser qu’il ne s’agit que d’une résolution ; un document politique définissant des axes, sans conséquence juridique immédiate.

Cette résolution a été adoptée, en séance plénière au Parlement européen le jeudi 16 février 2017 à une large majorité (396 contre 123 et 85 abstentions). Enfin, si cette initiative invite la Commission européenne à présenter une proposition législative, celle-ci « n’est pas contrainte de le faire, mais doit exposer ses raisons en cas de refus » expliquent les services du Parlement. La résolution part en tout cas d’une série d’inquiétudes en termes juridiques, mais aussi sociaux : le remplacement de l’homme par des robots dans la chaîne de travail pourrait générer des effets néfastes « pour l’avenir de l’emploi et la viabilité des régimes de sécurité sociale, si l’assiette de contributions actuelle est maintenue ».

Il est notamment suggéré à la Commission européenne de :

  • proposer une définition commune des différentes catégories de robots, afin de classer ces derniers dans un futur registre dédié ;
  • créer une « agence européenne pour la robotique et l’intelligence artificielle, destinée à fournir l’expertise technique, éthique et réglementaire nécessaire pour soutenir les acteurs publics concernés » ;
  • d’examiner les « critères de « création intellectuelle propre » applicables aux œuvres protégeables par droit d’auteur créées par des ordinateurs ou des robots.

La question de la fiscalité des robots, sujet repris par le candidat Hamon a, quant à elle, été abandonnée, suite à l’opposition de l’aile Droite du Parlement européen. Elle proposait que les entreprises définissent « l’étendue et la part de la contribution de la robotique et de l’intelligence artificielle à leurs résultats financiers » et ce afin de soumettre cette part à l’impôt et aux cotisations de sécurité sociale.

Le texte espère enfin lancer la création d’un « nouveau régime de responsabilité des robots autonomes, assorti d’un régime d’assurance obligatoire et d’un fonds de compensation notamment pour couvrir les accidents provoqués par les véhicules autonomes ».

Il va jusqu’à imaginer la création d’une personnalité juridique (i.e. la personnalité électronique) spécifique aux robots au terme de laquelle ces derniers seraient dotés de droits et de devoirs. Une citoyenneté robotique en somme, accompagnée « d’un système d’assurance obligatoire et d’un fonds supplémentaire pour garantir le dédommagement total des victimes en cas d’accidents ».

Les eurodéputés proposent également « un code de conduite éthique volontaire sur la robotique pour les chercheurs et les concepteurs. L’objectif est de garantir qu’ils opèrent conformément aux normes juridiques et d’éthique et que la conception et l’utilisation des robots respectent la dignité humaine », s’inspirant notamment des 3 lois d’Asimov – formulées par l’écrivain de science-fiction Isaac Asimov : « Un robot ne peut blesser un être humain ni, par son inaction, permettre qu’un humain soit blessé. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi. »

  • En Corée du Sud

Dans un autre registre, la Corée du Sud a imaginé depuis 2007 une Charte éthiques des robots dont le but affiché est d’éviter aux machines de se faire abuser par les Hommes et inversement. Pour le gouvernement cette charte doit définir  « les lignes de conduites éthiques sur le rôle et les fonctions des robots », susceptibles « dans un avenir proche,  [de] développer une vive intelligence ». Park Hye-young, membre du bureau de la robotique, a expliqué que cette charte était justifiée par le fait que les robots « pensants » deviendraient bientôt des « compagnons-clés de l’Homme ».

In fine, que l’on envisage la problématique sous forme de charte – celle-ci n’ayant d’ailleurs pas encore semble-t-il passé le stade de l’élaboration – ou de résolution, la manière la plus saine d’aborder le problème n’est peut-être pas celle retenue.

Il paraît qu’il vaut mieux prévenir que guérir ; en l’occurrence en matière d’IA, la Commission européenne se place sur une ligne curative avancée, s’imaginant probablement  dans le film de Spielberg où les robots et les humains viennent à cohabiter (cf. référence aux 3 lois d’Asimov) ;  dans un relativisme avancé où finalement humain/robot, tout se vaut (personnalité humain/personnalité robotique).

Ce que ces eurodéputés ne semblent pas avoir pris en compte c’est que le fait d’arriver à ce stade n’est pas une fatalité : normal en même temps, combien parmi eux sont issus de formations scientifiques leur permettant de saisir les enjeux complexes posés par le développement conjoint de l’IA et de la robotique et pointés du doigt par un Stephen Hawking ?

Que des machines puissent devenir supérieures à l’Homme et vivre à ses côtés est, avant d’être un débat législatif, un débat éthique et de société. Certains scientifiques tel Laurent Alexandre se penchent activement sur le sujet et sur les répercutions que pourraient entraîner le développement de la robotique et de l’IA.

Enfin, parmi les questions primordiale qu’il s’agirait de poser au cours de débats éthique sur la question pourraient se trouver « Est-ce parce que nous savons le faire que nous devons le faire ? (cf. référence au consensus contre le clonage humain), Qu’est-ce que le progrès ? Est-il forcément souhaitable ; une fin en soi ? ». En connaissance des risques que peut représenter un développement incontrôlé de l’IA, ne serait-il pas opportun de brider la recherche par sécurité, tant que n’auront pas été trouvés des moyens de dompter effectivement cette intelligence artificielle ?

À suivre …

Voir les commentaires (14)

Laisser un commentaire

Créer un compte Tous les commentaires (14)
  • cf. une courte nouvelle de Ted Chiang parue en 2002 :  » l’évolution de la science humaine » dans le recueil « la tour de Babylone »

  • Certains voudraient-ils instaurer entre humains et intelligences artificielles les mêmes relations qu’entre les ouvriers syndiqués et les patrons ?
    Sauf qu’on risque d’attendre longtemps qu’une IA fonde une start-up et devienne milliardaire : l’intelligence « artificielle » est un retour vers la moyenne et vers les comportements optimaux mais convenus, il ne faut pas confondre la capacité à appréhender la complexité avec l’innovation simplificatrice de bon aloi, on devrait pourtant le savoir avec nos politiciens !

    • Le probleme n’est pas la.
      Dans quelques années, le retour vers la moyenne va vite dépasser le retour vers la moyenne humaine. Et ce sera suffisant pour déstabiliser le systeme économique actuel, pas la peine d’attendre que les robots crééent des startups.
      Les humains crééent finalement assez peu de startup, celles ci représentent une goute d’eau dans le bassin d’emploi : les startups ne sauveront pas l’emploi du futur.

      Par ailleurs, les robots, automates et IA entrent en force dans toutes les R&D qui se respectent (bon ok, pour le moment, c’est essentiellement les grosses boites)

  • L’illustration est comme la suite du texte dénigrant, un repoussoir évident pour attiser les peurs (habituelles) !

  • « pour l’avenir de l’emploi et la viabilité des régimes de sécurité sociale, si l’assiette de contributions actuelle est maintenue » Ceci est hilarant vu le potentiel d’évolution du domaine de la santé ; il y a vraiment des gens qui cherchent à préserver le même système et, pire encore, la même assiette, avec les changements qui viennent ?

    • OK, les robots et autres intelligences pas naturelles devront fournir gratuitement une contribution en nature de 50% de leur temps de travail.

  • L’Humain veut plus : grand, fort, beau, vite, loin, intelligent, vivant, aimant,. . . Il ne vous est pas venu à l’esprit que l’IA va aussi participer à notre transcendance pour le meilleur qui soit ? Comment croyez vous que nous puissions conquérir les étoiles sans commencer par la conquête de nous-même ?

    •  »
      Comment croyez vous que nous puissions conquérir les étoiles sans commencer par la conquête de nous-même ?
       »

      faudrait il que les deux soient liés

  • Bonjour la classification et le temps perdu pour mettre en place une taxe sur les robots. Entre le robot parfaitement stupide à un degré de liberté qui vous ouvre la porte quand vous entrez dans un magasin et le robot à six degrés de liberté à la programmation complexe qui assemble un produit sur une chaine de fabrication, il n’y a rien de commun, ni techniquement ni dans la valeur ajoutée produite. Est ce que l’ascenseur qui mémorise les appels des paliers et en cabine pour optimiser son parcours sera visé par l’impôt ? L’automate qui lave votre voiture dans une station de lavage ? Etc… En fait, la taxe sur les robots existe déjà, elle s’appelle… la TVA. Ah zut, on ne peut pas l’augmenter, harmonisation européenne oblige…

  • Les trois lois d’Isaac Asimov « Un robot ne peut blesser un être humain ni, par son inaction, permettre qu’un humain soit blessé. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi » sont une pure illusion. Le droit du robot d’un milliardaire, s’il renverse un homeless dans la rue, sera toujours supérieur au droit du homeless, selon une théorie jamais démentie depuis Ésope et reprise par La Fontaine : « Selon que vous serez puissant ou misérable, les jugements de cour vous rendront blanc ou noir. » (cf. Les animaux malades de la peste).

  • La dernières fois que je suis allé à l’épicerie, il fallait que je paie ma nourriture. C’est con, mais c’est ça. Et pour avoir de l’argent pour me nourrir, je dois travailler. Si un robot prend ma place, je mange comment? Le robot va m’imprimer de l’argent?

    • Il va t’imprimer ton pain …

      et en fait, c’est sans vraiment rire … (oui, parce que de prime abord, ça ressemble à une blague … ce que c’est … en partie)

  • Vous pensez que les robots nous garderont une pitite place dans leur fusée pour explorer les étoiles ou pas?

  • Les commentaires sont fermés.

Promouvoir la liberté n’est pas gratuit

Mais cela peut aider à réduire vos impôts de 66%

Faites un don dès maintenant

Faire un don

Par Vincent Martin, Université de Bordeaux et Christophe Gauld, Université Paris 1 Panthéon-Sorbonne. 

 

« Bonjour Monsieur. Je vous en prie, installez-vous. Alors… comment allez-vous depuis la dernière fois ? »

Et si, dans quelques années, cette phrase anodine n’était plus prononcée par un psychiatre en chair et en os mais par une IA, une Intelligence artificielle ? Avec la résurgence récente de la psychiatrie dans le débat public, notamment en raison de la crise sanitaire, l’idée de proposer des systèmes de suivi d... Poursuivre la lecture

Nous sommes à l’aube d’une nouvelle rupture technologique qui pourrait, à terme, bouleverser le marché de l’emploi. Le développement des solutions d’intelligence artificielle sur des pans entiers du marché de l’emploi aura des externalités positives indéniables, encore trop mal perçues des travailleurs.

Des transformations structurelles sans destruction massive

Selon le rapport de référence « Automatisation, numérisation et emploi » du Conseil d’orientation pour l’emploi (janvier 2017), moins de 10 % des emplois existants seront menacé... Poursuivre la lecture

Par Doug French. Un article du Mises Institute

Relatant une boutade de l'économiste soviétique Nikolai Fedorenko, Yuri Maltsev a illustré le problème du socialisme dans sa préface à l'ouvrage de Ludwig von Mises intitulé Economic Calculation in the Socialist Commonwealth. Fedorenko a déclaré à l'époque, selon les mots de Maltsev, "[Un] plan économique entièrement équilibré, vérifié et détaillé pour l'année suivante serait prêt, avec l'aide des ordinateurs, dans 30 000 ans."

L'intelligence artificielle comme outil socialiste ?

Vi... Poursuivre la lecture

Voir plus d'articles