L’intelligence artificielle bouleverse le statut d’auteur

Publié Par Trop Libre, le dans Technologies

Par Bastien Cueff.
Un article de Trop Libre

L’émergence des nouvelles techniques de recherche et de développement informatique ont permis l’avènement de l’intelligence artificielle (IA). Simplement fantasmée pendant des siècles, elle est aujourd’hui une réalité dont notre quotidien s’est doucement mais sûrement imprégné. Par delà son aspect usuel, l’IA est aujourd’hui dotée de capacité nouvelle comme la création d’art. Or, la création par un ordinateur interroge notre système juridique et plus particulièrement le droit d’auteur.

Les réseaux neuronaux développent rapidement le savoir de l’IA

La création d’art par l’intelligence artificielle n’est pas un phénomène nouveau. Déjà dans les années 1970 les premiers ordinateurs capables de création autonome composaient des poèmes et des nouvelles1.

Mais les techniques de recherche étaient trop lentes et ont été délaissées pendant un temps. Depuis une dizaine d’années l’IA a connu un développement exponentiel grâce au Deep Learning ou « apprentissage approfondi2 ».

C’est une technique informatique permettant de simuler le fonctionnement du cerveau humain en superposant des couches de neurones. Les connaissances et les techniques sont assimilées par l’ordinateur qui apprend par l’expérience. En somme plus il voit, entend, créé et fait des erreurs et plus il apprend de ces erreurs et les corrige. C’est ce qu’utilise Apple avec Siri et Microsoft avec Cortana. Plus on leur parle et plus elles apprennent sur nous, nos goûts et réfléchissent en conséquence.

Appliqué à la création d’art l’ordinateur est donc capable d’apprendre, de reconnaître et… de créer. Ainsi, Google à travers son projet Deep Dream, créé des œuvres psychédéliques. Un projet néerlandais appelé « The new Rembrandt » a créé une fausse œuvre de Rembrandt basée sur la reconnaissance visuelle des œuvres originales du peintre. Des startups se sont saisies de cette innovation pour proposer des services de création d’art par ordinateur. C’est le cas d’Artomatix, startup dublinoise qui se vante d’avoir inventé la première « artificial imagination».

Les œuvres créées par ordinateur sont orphelines

En France, une œuvre est protégée par le droit d’auteur si elle répond à trois critères. Il faut qu’elle soit tangible, c’est-à-dire transmissible. Ensuite elle doit être une œuvre de l’esprit. Enfin qu’elle soit une création originale. Il faut noter que ces critères sont similaires à l’international. Les critères d’œuvre de l’esprit et de création originale sont à l’origine des tensions juridiques que connaît la propriété intellectuelle. En effet la définition de l’originalité veut que l’œuvre soit imprégnée de la personnalité de l’auteur. Sauf que l’IA n’a pas la personnalité juridique.

Elle est acceptée comme outil de création pour l’artiste3. On parle alors de « création assistée par ordinateur ». Mais plusieurs cours de justice ou des institutions juridiques refusent de lui accorder le statut d’auteure car elle ne répond pas au critère d’originalité. Le Copyright Office des Etats-Unis a changé son règlement dans ce sens et la cour suprême d’Australie a établi un jugement clair contre l’IA comme auteure d’une base de données4.

Ces décisions posent problème car personne ne peut revendiquer la paternité sur ces œuvres. Par conséquent elles tombent dans le domaine public.

Quelles solutions sont envisageables pour résoudre ce problème ?

Une solution globale à ce problème peut être envisagée : donner la personnalité juridique aux robots et développer un régime juridique autour de ce statut. Cette position est défendue par l’avocat Alain Bensoussan qui milite pour un régime de la responsabilité des robots.

Le problème de personnalité juridique étant réglé, l’IA aurait la possibilité d’accéder au statut d’auteur. Mais une simple révision de notre système juridique pourrait suffire. En modifiant la définition de l’originalité, en lui donnant une portée plus objective, on pourrait indiquer que l’originalité découle de l’œuvre créée et pas du processus de création en lui-même.

C’est l’interprétation qu’ont les instances européennes de l’originalité. Dans tous les cas, le changement est nécessaire car l’objectif du droit d’auteur est de permettre à l’auteur de jouir de sa création et de l’inciter à produire encore et encore. Ne pas modifier le droit d’auteur pour l’IA reviendrait à inhiber la création en ne la récompensant pas.

Sur le web

  1. Voir les ordinateurs nommés ALICE, PECOS ou RASTER
  2. Tual, Morgan, « Comment le deep learning révolutionne l’intelligence artificielle ? », Le Monde pixels, 28 juillet 2015.
  3. Voir l’arrêt de la cour d’appel de Bordeaux du 31 janvier 2005.
  4. Australia Sup. Court, Telstra Corporation Ltd v. Phone Directories Company Pty Ltd (2010) FCAFC 149, § 335.
  1. Cela démontre bien que les droits d’auteur finiront par tomber.

    Et reporter ces droits sur la personne possédant ou ayant créée l’IA (d’ailleurs je ne trouve pas l’article très clair à ce sujet) ne résoudra pas le problème.

    Vous imaginez la confiscation de droits qui se profile à l’horizon, non ?

    Celui qui aura construit l’IA, ou qui possédera l’IA bénéficiera des droits.

    Vivement la fin de ces droits …

  2. Comment récompenser, punir, reconnaitre une responsabilité à une IA ?

    Le problème de l’IA est encore plus flagrant dans le domaine de la responsabilité en cas d’accident. Si le programme chargé de diriger un processus est le fruit de l’IA, pour conduire une voiture, construire un bâtiment, piloter une centrale nucléaire, optimiser des placements financiers, qui sera responsable en cas de dérapage ? L’acquéreur de la solution crée par l’IA semble le meilleur candidat, mais il n’aura pas la capacité d’appréhender les risques potentiels, et son choix sera donc fortement biaisé.

    Peut-être qu’une loi, écrite par une IA, résoudra cette difficile question 😉

  3. Une IA ne sera prouvée véritablement intelligente que le jour où elle fera abroger les aspects financiers des droits d’auteur.

  4. On ne vois pas où il y aurait la moindre question juridique. Encore heureux que les juges refusent de tomber dans le panneau d’accorder une personnalité juridique à des programmes informatiques. Un programme informatique, même abusivement qualifié d’intelligent, appartient à son auteur tant qu’il n’est pas vendu à autrui. Et si ce programme produit des catastrophes inattendues après la vente, l’acheteur se retournera naturellement contre l’ancien propriétaire pour malfaçon, ou pire. C’est l’exemple typique du faux débat, fondé sur un mensonge initial : une IA est certainement artificielle mais n’a strictement rien d’intelligent. On comprend cependant le désir des informaticiens (et accessoirement des constructeurs automobiles) d’être bordés juridiquement, pour ne pas risquer des poursuites pour les résultats… créatifs de leurs petits programmes aléatoires qu’ils comptent nous vendre par millions d’exemplaires.

    Ce que cela révèle du marché informatique, c’est que tous ces braves gens voudraient nous vendre des produits pas finis, comme ils en ont déjà l’habitude (voir par exemple les mises à jour de sécurité régulières de nos systèmes d’exploitation), charge aux clients de subir les désagréments du débogage. Mais évidemment, déboguer une auto filant à 130km/h sur l’autoroute risque de poser quelques petits problèmes… Alors autant obtenir tout de suite une décharge de responsabilité, en espérant qu’un juge idiot crée une jurisprudence, en se laissant aveugler par le mensonge de l’intelligence artificielle, expression désignant en réalité ce qui n’est rien d’autre qu’un simple et banal programme informatique.

    1. @Cavaignac

      Même si la question reste à débattre, il ne me semble pas que c’était le sujet.

      En l’état actuel des technologies la conduite « intelligente » reste un programme informatique, pas une IA à qui on apprendrait à conduire et devrait par le fait obtenir un permis, non ?

      Donc la responsabilité reste à la charge du constructeur.

      1. La plupart du temps, en effet, quand on parle d’intelligence artificielle, il ne s’agit que de simples programmes qui réalisent des actions (par opposition aux programmes sur lequel c’est l’homme qui travaille, comme un tableur, ou internet). C’est bien le fournisseur du programme qui est responsable des bugs.

        Mais on peut effectivement parler d’intelligence autonome si le programme agit en fonction d’un apprentissage lui aussi autonome. Car le programme est bien programmé pour apprendre, mais le programmeur n’a pas programmé le résultat de l’apprentissage (c’est ça l’IA). L’exemple souvent donné du choix d’écraser un piéton ou de sacrifier le conducteur est faux, puisqu’il ne s’agit pas d’apprentissage (par essai et erreur) et non pertinent, puisqu’il suffit de suivre la loi et qu’on ne va pas en prison quand on écrase un piéton (en cas de force majeure). Reste le problème du bug qui renvoie au fournisseur du programme.

        Mais dans le cas de la propriété intellectuelle d’une création par un programme (intelligent ou non), il est bien évident que c’est l’utilisateur du programme qui est propriétaire de l’œuvre, comme dans le cas d’une entreprise qui emploie des humains, avec éventuellement la possibilité de céder une partie des droits (ici, à ceux qui ont programmé l’IA).

      2. Précisément, les constructeurs font des pieds et des mains pour ne pas être responsables des accidents à venir provoqués par leurs systèmes de conduite automatique. Faire reconnaître un droit quelconque (ici sur une œuvre artistique) à un programme informatique revient à lui conférer une personnalité juridique et c’est bien ce à quoi les constructeurs notamment, mais également tous ceux qui travaillent dans ce domaine, veulent arriver. Si on donne un jour une personnalité juridique à un programme informatique, alors son programmeur ne sera plus responsable de la moindre ligne de code issue de son cerveau. « Ce n’est pas de ma faute, monsieur le Juge. Comprenez, je n’y suis pour rien, c’est la faute de l’IA dans la voiture qui a fait n’importe quoi de son propre chef. Condamnez la voiture qui est seule responsable ! », prétendra-t’il, en sifflotant l’air du pipeau.

        Si jamais on devait en arriver à cette catastrophe juridique, ce sera le règne de l’irresponsabilité et plus aucun programme informatique ne sera fiable. Même pour le piratage : « Ce n’est pas de ma faute, monsieur le Juge, l’IA de mon PC a décidé de pirater l’ordinateur de mon voisin sans ma permission. Mais moi, je ne le voulais pas… »

        Attribuer une personnalité à un programme est un délire juridique du même ordre que ceux, récents, à propos des animaux, typiques d’une société malade et décadente, arrivée en toute fin de cycle.

        Le manomètre à bullshit a décidément l’aiguille dans la zone rouge ces derniers temps. Tout ceci est très inquiétant et va nécessiter une remise au pas particulièrement sévère.

  5. Je ne vois pas de problème particulier à ce qu’elles tombent dans le domaine public.

  6. Quand les droits d’auteurs tomberont, comme le suggèrent de précédents commentaires, les droits de l’homme suivront dans la grande lessive. le débat est connu et amplement argumenté. Quand on propose ce genre de régressions, c’est qu’on aime pas vraiment les droits humains fondamentaux. Le jour où l’IA deviendra une personnalité juridique, les milliardaires possesseurs d’IA considéreront que les pauvres seront inférieurs dans la rue à ces machines dont ils sont les heureux propriétaires. De là à la solution finale préconisée par Soleil vert, il n’y aura plus beaucoup d’étapes à franchir : les humains seront alors chosifiés par les machines. Races supérieures, races inférieures, Hitler, Marx, Engels, Lénine, Staline en avait rêvé, l’IA le réalisera pour eux.

    1. @François de France

      Je ne vois pas pourquoi les droits de l’homme tomberaient à la suite des droits d’auteurs.

      Vous pourriez nous expliquer ce que vous voyez dans votre boule de crystal ? svp

Les commentaires sont fermés.