Les robots ont-ils des droits ?

Publié Par Trop Libre, le dans Technologies

Par Élisabeth de Castex.
Un article de Trop Libre

75 ans après les célèbres lois d’Asimov, la robotique a fait d’énormes avancées. Les robots sont de plus en plus autonomes, sous l’effet d’une intelligence artificielle en progrès constant. Par conséquent, voit-on émerger une philosophie des robots.

En effet, de manière surprenante, des voix s’élèvent pour réclamer, non pas tant des devoirs, mais une protection sous forme de droits pour ces mêmes robots. Faut-il s’en étonner ? En réalité, le débat n’est pas le même selon que l’on parle du droit au singulier, c’est à dire d’un cadre juridique, ou bien de la reconnaissance de droits au pluriel.

Deux arguments pour les droits des robots

Dans ce dernier débat, deux arguments sont mobilisés. D’une part, le robot disposera sans doute un jour d’une intelligence forte, c’est à dire dotée non seulement de la puissance de calcul, mais se rapprochant également de l’intelligence humaine (dans la mesure où cette hypothèse est vraisemblable, alors que l’intelligence artificielle est dénuée de contraintes biologiques, et ne connaît pas la souffrance). Il faudra alors prendre celle-ci en compte, en la protégeant des discriminations par exemple.

Cet argument a été soutenu par le médecin et chef d’entreprise Laurent Alexandre . Selon le second argument, il serait de l’intérêt des hommes que les robots puissent bénéficier d’une personnalité juridique spécifique, puisqu’ils seront amenés à prendre des décisions et à interagir avec les êtres humains. L’avocat Alain Benssoussan plaide en ce sens.

« Il serait nécessaire de commencer à réfléchir à la question de savoir si on peut concevoir l’intelligence artificielle en tenant compte des intérêts des humains, et en fait de tous les êtres doués de sensibilité »

Si la réflexion sur les obligations des robots s’inspire toujours des lois d’Asimov, les enjeux ne sont plus tout à fait les mêmes. La controverse s’amplifie quand il s’agit de savoir si, quand, et comment une intelligence artificielle sera parfaitement autonome. À partir de quel degré d’autonomie décisionnelle un robot bénéficiera-t-il d’un statut juridique ? Il s’agit là d’une question à double détente qu’il faudrait débattre : d’abord les perspectives d’autonomie décisionnelle des robots et leur régulation, puis leur statut juridique.

Aux États-Unis d’Amérique, un récent communiqué de la Maison-Blanche constate que l’influence de l’intelligence artificielle sur le monde se développe sensiblement . Le pouvoir politique y songe et se prépare aux implications qui en découlent, s’agissant du respect de la sphère privée, de la sécurité, de la régulation, du droit, ainsi que de la recherche.

Pendant ce temps-là, de ce côté-ci de l’Atlantique, les parlementaires se penchent sur le sujet, mais restent sereins : « la perspective de robots égalant l’intelligence humaine, a fortiori capables de se faire passer pour des humains, semble à ce jour illusoire » peut-on lire dans un récent rapport de l’OPECST, l’Office parlementaire d’évaluation des choix scientifiques et technologiques.
À ce jour, existe-t-il des normes qui s’imposent aux chercheurs pour le contrôle de l’intelligence artificielle et la préservation des intérêts humains ? Il semble qu’une réflexion sur l’éthique de la robotique soit bien indissociable de la réflexion sur les droits des robots.

Pour aller plus loin sur les droits des robots :
• Sur la philosophie des robots : http://conferences.au.dk/robo-philosophy/
• OPECST. « Les robots et la loi ». 03 mars 2016 : http://www.assemblee-nationale.fr/14/rap-off/i3551.asp
http://conferences.au.dk/robo-philosophy/
Le site de l’avocat Alain Benssoussan, spécialisé dans les droits des robots.
• Alain Bensoussan. Yannis Constantinidès. Kate Darling. Jean-Gabriel Ganascia. Olivier Tesquet. En compagnie des robots. Paris : Premier Parallèle, 2016.

Pour aller plus loin sur les enjeux de l’intelligence artificielle :
• CERNA (Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du Numérique d’Allistene). Éthique de la recherche en robotique. Rapport n° 1, 2014.
• Yann LeCun. Chaire Informatique et Numérique. Collège de France.
• France Stratégie. La place de l’homme face à l’intelligence artificielle. Avril 2016.
Nick Bostrom. Superintelligence : paths, dangers, stratégies. Quand le principal théoricien du transhumanisme.
• Peter Singer. Can artificial intelligence be ethical? 12 avril 2016.

  • article initialement publié sur le blog Anthropotechnie, de la Fondation pour l’innovation politique 

Sur le web

  1. Trop drole, les IA progressent de maniere vertigineuse et vont etre catapultées sur nos routes avec l’arrivée des voitures autonomes avant 5 ans et nos parlementaires sont « sereins », il ne se passera rien avant longtemps ^^
    J’imagine les crises a venir avec immobilisation des flottes le temps qu’ils légifèrent….ou la personne prisonniere de sa bagnole a Paris depuis 3h parce que la voiture ne trouve pas de place « legale » ou elle est autorisée a faire une depose etc… on va bien rigoler!

    1. Pas de problème : celui qui catapulte un machin sur la voie publique est responsable des accidents que ce truc pourrait causer, c’est la loi actuelle, elle suffit.
      Asimov pose un tas de questions intéressantes sur les robots dans ses ouvrages, sur la base de cerveaux positroniques qui rendraient le raisonnement des robots proche de celui des cerveaux naturels. Les Français ne voient pas la différence entre une hypothèse de science-fiction et les publicités dont ils sont quotidiennement assommés, et réagissent par un « faut-il légiférer ? » pavlovien.

  2. bien sûr que les robots ont des droits, on a même plusieurs branche du droit pour les traiter
    * le droit public, qui est entièrement consacré à ce grand robot qui s’appelle l’état, et à tous les autres robots qui en dépendent (établissements publics, etc.)
    * le droit des sociétés
    Toute personne morale est un robot, tout robot est une personne morale. Et les personnes morales ont déjà plein de droits.

    la seule différence notable, c’est que les personne morale ont actuellement besoin d’une personne physique pour les représenter en justice. Mais en fait la personne physique peut n’être qu’un prête-nom, le boulot étant en réalité fait par un robot : le cabinet d’avocat

    1. Les personnes morales sont des fictions. Quand une société « agit » en justice, ce sont en fait ses propriétaires (càd les actionnaires) qui le font. De même que ce sont les actionnaires qui sont propriétaires des biens inscrits au nom de la société. c’est quelque chose qu’il est facile d’oublier tant la plupart de ces propriétaires laissent pleine latitude à leurs représentants (càd les administrateurs) pour agir au mieux.
      Et c’est la même chose pour l’Etat. Une des erreurs du socialisme est justement d’oublier que l’Etat n’est qu’une fiction juridique. En dictature, l’Etat c’est le dictateur, en démocratie c’est le peuple – pour faire très court.
      Comme les robots ne sont pas des fictions, ils ne sont donc pas des personnes morales.
      Et je ne crois pas qu’ils puissent un jour avoir des droits quelle que soit leur intelligence. Par définition, la morale est au service de l’homme, exclusivement. Et de deux chose l’une: soit les robots sont créés pour servir l’homme (des « esclaves » robotiques), soit ils acquerront une autonomie, et nous aurons un problème car ils développeront leur propre morale, dans laquelle la place de l’homme sera, disons, incertaine.

      1. première erreur : vous confondez fiction et abstraction. Le squelette ou le système sanguin sont des abstractions, mais ce ne sont pas des fictions comme Sherlock Holmes ou Superman, il y a bien des réalités matérielles derrière. Il en est de même des personnes morales.
        deuxième erreur : une société est aussi distincte de ses actionnaires que votre cerveau est distinct de vos neurones.
        troisième erreur : que les robots soit ou pas des fictions, ça ne les empêche pas d’avoir la personnalité morale. Vous êtes réel (enfin je crois … mais je ne peux pas en être sûr), et vous pouvez pourtant avoir la personnalité morale au travers d’une EURL par exemple.

        Enfin, quatrième erreur : l’intelligence n’a rien a voir dans l’histoire et vous manquez de logique. En effet, comme vous dites,
        « soit ils acquerront une autonomie, et nous aurons un problème car ils développeront leur propre morale, dans laquelle la place de l’homme sera, disons, incertaine. »
        Mais vous oubliez que la morale n’est évidemment pas une question de bras ou de jambes (ou de roues) mécaniques, c’est une question de règles de conduite de l’entité concernée. Que cette entité soit mécanique ou abstraite, comme une entreprise ou un état.
        Et donc … nous y sommes, depuis longtemps. Les états et les entreprises ONT ACQUIS une autonomie, et nous AVONS un problème car ils ONT DÉVELOPPÉ leur propre morale, dans laquelle la place de l’homme EST, disons, incertaine.
        Et ce, alors même que ces robots (car entreprises et états sont des robots !) ont été créés pour servir l’homme, et que ce toujours bel et bien des « esclaves » robotiques. Mais on échappe pas si facilement à la dialectique du maitre et de l’esclave, et l’esclave devient le maitre si on n’y prend garde, même quand il n’est qu’une abstraction

        Bref : les robots sont déjà là depuis plusieurs milliers d’année. Si vous refusez de vous en rendre compte … bah c’est peut-être même pas grave, ça ne change rien

  3. Je trouve ça très présomptueux de parler d' »IA » aujourd’hui, quand on ne parle que d’algorithmes très sophistiqués en réalité. On en est bien loin de Blade Runner ou d’Asimov…

Les commentaires sont fermés.