L’éthique est-elle soluble dans l’intelligence artificielle ?

La course à l’intelligence artificielle nous oblige à revoir nos schémas intellectuels et nos biais idéologiques. L’éthique de l’IA ne doit pas transformer les futurs produits « Made in France » en boites de contraintes limitant leurs performances.

Partager sur:
Sauvegarder cet article
Aimer cet article 0

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

L’éthique est-elle soluble dans l’intelligence artificielle ?

Publié le 24 avril 2018
- A +

Par Thierry Berthier.

Il y a trois semaines, le député mathématicien Cédric Villani remettait officiellement au gouvernement son rapport sur l’Intelligence Artificielle. Le Président de la République annonçait dans la foulée un budget de 1,5 Md€ consacré à l’IA. Depuis cet événement, les articles, analyses et commentaires se sont multipliés sur cette mission stratégique pour la France.

Dans l’ensemble, l’important travail réalisé par l’équipe Villani et par les membres permanents du Conseil National du Numérique a été salué dans la presse et les médias. La mission Villani a procédé  à plus de 350 auditions d’experts, de chercheurs, d’industriels, d’entrepreneurs et de professionnels du numérique en couvrant un large périmètre de thématiques.

Le rapport de 235 pages reflète bien cet effort méticuleux d’audition et de restitution. Il fournit une feuille de route précise sur la politique à mener en matière d’IA. Tous les sujets ont été abordés, y compris ceux qui fâchent, avec méthodologie et rigueur. J’ai eu la chance de côtoyer à deux reprises l’équipe d’audition Villani / CNN et ai pu apprécier sa capacité d’écoute et d’ouverture.

Lors de la remise du rapport, le Président Macron a fait un discours très attendu sur les enjeux et défis de l’IA. Ce discours, en phase avec la tonalité du rapport Villani, s’inscrit finalement dans la lignée du discours sur l’IA (de fin de mandat) du Président Obama, dans lequel était souligné le caractère hautement stratégique de l’IA pour l’Amérique. On notera que la majorité des pays industrialisés a diligenté entre 2016 et 2017 au moins un rapport sur l’impact de l’IA.

Certaines critiques (récurrentes sur les réseaux sociaux) prétendent qu’en France, on n’a pas de Licorne de l’IA capable de rivaliser avec les entreprises chinoises et américaines mais que l’on sait faire, par contre, de beaux rapports qui finissent dans un tiroir… Cette critique est infondée.

L’Allemagne, la Grande Bretagne, la Russie, la Chine, le Canada et les États-Unis ont produit entre 2016 et 2017 plusieurs rapports stratégiques sur l’IA. La France n’est donc pas la seule à commander des rapports. Concernant l’absence de Licornes françaises, la compétition internationale et la toute puissance des GAFA et BATX favorisent effectivement le rachat prématuré des startups prometteuses. Mais il existe aussi des secteurs comme l’armement dans lesquels les acteurs industriels français jouent la course en tête de l’innovation et n’ont rien à envier aux concurrents américains et chinois.

En investissant beaucoup dans l’IA (R&D), Thales, Airbus et Dassault développent des technologies, des plateformes et des produits qui sont mondialement reconnus, appréciés et compétitifs. Il faut donc relativiser les critiques et les propos de comptoirs en 140 caractères.

Le rapport Villani fait suite à la mission « FranceIA » mise en place (trop) tardivement, à la fin du précédent quinquennat. Cette première mission dirigée à l’époque par Nathanaël Ackerman avait permis d’explorer une communauté française de l’IA en pleine évolution avant que la Mission Villani ne vienne dresser un état des lieux plus exhaustif et plus détaillé de  l’écosystème national.

Le dogme d’une IA éthique, pour tous, au service du bien

L’une des lignes de force du rapport Villani est celle d’une « IA éthique » développée pour le bien commun, accessible à tous, profitant à tous, ouverte à la diversité. Omniprésentes dans le rapport, ces recommandations ont été réaffirmées lors de la remise du rapport par Cédric Villani.

Sur le fond, on ne peut qu’être d’accord avec cette attente d’éthique et d’orientations positives dans les plateformes embarquant de l’intelligence artificielle. Pour autant, il faut préalablement s’entendre sur la définition d’une éthique projetable sur des composantes d’IA.

S’agit-il de contraintes fonctionnelles à implémenter by design dans les plateformes, de bornes d’application de la solution développée, de restrictions aux seules données éthiquement admissibles dans le cadre d’un processus d’apprentissage, de limitation de l’autonomie d’exécution d’une composante de Machine Learning, d’un robot ou d’un véhicule autonome ?

On comprend que la recommandation d’éthique impacte le périmètre fonctionnel d’une IA aujourd’hui faible et verticale et qu’elle introduit de fait un niveau de complexité supplémentaire dans la conception des plateformes.

Il n’existe aucun consensus international sur ce qui est éthique et ce qui ne l’est pas en matière d’intelligence artificielle. La géométrie variable de l’éthique du numérique en fonction de la culture, des traditions, des croyances et des biais cognitifs des populations ne facilite pas son intégration « by design » à l’IA.

La demande d’éthique est corrélée au consentement algorithmique de l’utilisateur, aux craintes associées au développement de l’IA et aux empreintes idéologiques du demandeur. Puisque ma catégorisation personnelle de l’éthique de l’IA ne correspond pas forcément à celle de mon voisin, il faut que l’éthique de l’IA soit adaptative à toute échelle et qu’elle satisfasse l’ensemble des attentes.

Un second argument allant à l’encontre d’une IA « universellement éthique » réside dans la forte spécialisation des plateformes.

Considérons cinq exemples :

  1. l’éthique d’une IA intervenant dans l’élaboration de contrats d’assurance (calculant le risque du futur assuré) ou de prêts immobiliers,
  2. l’éthique d’une IA déterminant le meilleur protocole de traitement d’un patient souffrant d’un cancer,
  3. l’éthique d’une IA intervenant dans un système de trading haute fréquence (HFT),
  4. l’éthique d’une IA pilotant une voiture autonome,
  5. l’éthique d’une IA embarquée dans un système armé semi-autonome puis autonome

Ces cinq cas d’usage de l’IA induisent des séquences fonctionnelles et des temporalités différentes, des marchés différents, des clients différents, des mesures de gains différents, et des mécanismes concurrentiels (relevant de la théorie des jeux) différents.

Aussi, vouloir plaquer un canevas universel d’éthique numérique préfabriquée sur ces cinq cas d’usage relève de l’utopie. Dans certains cas, incorporer une contrainte éthique à la plateforme reviendra à la disqualifier immédiatement de la compétition et la rendra inutile et impropre à tout  déploiement. La réflexion éthique doit donc s’effectuer de manière verticale, au cas par cas, en ayant une connaissance la plus exhaustive de l’écosystème sur lequel la plateforme à « rendre éthique » doit être déployée.

Il faut pour cela que la classe politique française accepte, in fine, de remiser ses arguments  idéologiques, égalitaristes, moralistes, qui ne poseront que des verrous français sur des technologies françaises, laissant ainsi la voie libre à des plateformes d’IA chinoises ou américaines, transgressives by design, répondant à la seule éthique de la performance.

Le risque dogmatique d’une IA française ou européenne, garantie Full-éthique, a été parfaitement résumé par Antoine Petit, directeur-général du CNRS, dans son discours lors de la remise du rapport Villani. Selon lui, l’Europe et la France ne doivent pas se laisser enfermer par la Chine et les États-Unis dans le rôle du garant mondial de l’IA éthique au détriment de l’IA business, de l’IA opérationnelle et stratégique. Sa mise en garde était, dans le contexte de la remise du rapport Villani, d’une très grande pertinence.

Avant de fixer unilatéralement des bornes éthiques sur les composantes d’IA françaises, nous devons prendre du recul et nous interroger : l’éthique est-elle calculable au sens de Turing ?

Vers un écosystème de l’IA, mixte et ouvert à la diversité   

Dans son discours sur les enjeux de l’IA, le Président Macron a souhaité que la communauté française de l’IA se diversifie et ne se résume pas aux seuls « mâles blancs quarantenaires ». La petite phrase, prononcée par le Président sous le ton d’une boutade provocatrice, face effectivement à un parterre d’experts, mâles blancs quarantenaires dominants de l’IA française, n’avait finalement rien d’une boutade. Elle relevait plus du reproche collectif adressé à une communauté à 80% masculine qui n’a pas su ou voulu attirer plus de jeunes filles vers les carrières de l’IA.

La réalité du constat statistique du Président Macron pose le problème de la représentativité de l’ensemble de la population dans un domaine d’activité ou d’expertise. Il aurait d’ailleurs pu faire le même constat dans le football, l’athlétisme, le marathon, le rap, la musique classique ou la littérature.

Dans ces domaines d’activité, la représentativité de l’ensemble de la population est très rarement atteinte mais elle ne semble pas freiner l’émergence de la performance et du succès. Alors que doit-on faire ? La faible présence de femmes dans l’écosystème français de l’IA doit nous interroger sur les verrous qui agissent en amont et en particulier dès le collège et le lycée.

Les choix de non orientation des jeunes filles vers des formations de sciences « dures » s’effectuent à cette période. Il faut casser cette mécanique des biais cognitifs souvent entretenue au sein même des familles lors de petites discussions mère/fille : « Ma fille, que veux-tu faire plus tard ? Je t’imagine bien médecin, pharmacien, biologiste, psychologue, sociologue, institutrice, ou dans l’évènementiel » et beaucoup plus rarement « Ma fille, tu pourrais faire des mathématiques, des statistiques, de l’informatique et de l’intelligence artificielle pour construire de grands robots ». Il faut agir sur la phase de pré-orientation des adolescentes qui élaborent une liste mentale durable de métiers à proscrire. D’autres pays comme le Canada, le Japon, la Corée du Sud ont brisé les verrous d’autocensure sur les métiers de l’IA pour les rendre attractifs auprès des adolescentes. En France, pour l’instant, nous ne savons pas le faire.

La course mondiale à l’IA qui s’engage nous oblige à revoir nos schémas intellectuels et nos biais idéologiques si nous souhaitons relever les défis qui s’annoncent. L’éthique de l’IA, nécessaire dans sa partie calculable, ne doit pas transformer les futurs produits d’IA « made in France » en boites de contraintes et de rigidités limitant leurs performances. L’esprit d’innovation français saura trouver le point d’équilibre de ce système complexe !

Voir les commentaires (4)

Laisser un commentaire

Créer un compte Tous les commentaires (4)
  • « Aussi, vouloir plaquer un canevas universel d’éthique numérique préfabriquée sur ces cinq cas d’usage relève de l’utopie. Dans certains cas, incorporer une contrainte éthique à la plateforme reviendra à la disqualifier immédiatement de la compétition et la rendra inutile et impropre à tout déploiement.  »

    Le problème c’est surtout que c’est impossible d’imposer une éthique à une IA avancée, pas plus qu’il est possible d’imposer une éthique à un humain.
    Donc oui ca aboutirait à un échec comme vous le dite, mais pas pour une raison d’efficacité ou d’inutilité de l’IA produite.
    A moins que j’ai mal compris votre message et que vous ne parliez pas d’IA forte bien sur.

    • @ Chk
      L’IA deviendra évidemment « finalement » capable d’intégrer peu puis plus d’algorithmes « éthiques » et donc aptes à nous montrer où notre logique n’est pas conforme à sa programmation algorithmique.

      Ça risque d’être parfois redoutable! (C’est toute la saveur du texte de l’article.)

      Faut-il le craindre? Qui ne sait pas que cet outil « intelligent » ne fonctionnera que sur ce qu’ « on » aura programmé? Comme tout « outil », il servira au pire ou au meilleur, suivant sa conception-construction.

  • Pour aborder le problème simplement et concrètement, évoquons le cas du vehicule autonome. La dimension éthique se résume pour lui au dilemme du tramway : face à une situation d’urgence le VA devra t-il sacrifier son ou ses occupants ou les passants extérieurs ?
    On le voit c’est essentiellement d’éthique de calcul qu’il s’agit. Je doute sincèrement qu’on condamne une nouveauté en IA simplement parce qu’il y aurait doute sur l’essence même de celle-ci.

  • C’est quoi ce délire féministe sur la représentation des femmes dans l’IA. ? et il faut arrêter avec les biais cognitifs qui ne sont qu’une façon de dire que celui qui n’est pas d’accord est un imbécile.

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don
7
Sauvegarder cet article

Notre nouveau et brillant Premier ministre se trouve propulsé à la tête d’un gouvernement chargé de gérer un pays qui s’est habitué à vivre au-dessus de ses moyens. Depuis une quarantaine d’années notre économie est à la peine et elle ne produit pas suffisamment de richesses pour satisfaire les besoins de la population : le pays, en conséquence, vit à crédit. Aussi, notre dette extérieure ne cesse-t-elle de croître et elle atteint maintenant un niveau qui inquiète les agences de notation. La tâche de notre Premier ministre est donc loin d’êtr... Poursuivre la lecture

Ce vendredi 2 février, les États membres ont unanimement approuvé le AI Act ou Loi sur l’IA, après une procédure longue et mouvementée. En tant que tout premier cadre législatif international et contraignant sur l’IA, le texte fait beaucoup parler de lui.

La commercialisation de l’IA générative a apporté son lot d’inquiétudes, notamment en matière d’atteintes aux droits fondamentaux.

Ainsi, une course à la règlementation de l’IA, dont l’issue pourrait réajuster certains rapports de force, fait rage. Parfois critiquée pour son ap... Poursuivre la lecture

Le fait pour un gouvernement de solliciter et d’obtenir la confiance de l'Assemblée contribue à la prévisibilité, la stabilité et la sincérité de l’action publique, et cela devrait être reconnu comme indispensable.

Le 30 janvier dernier, Gabriel Attal a prononcé son discours de politique générale, sans solliciter la confiance de l’Assemblée, avant qu’une motion de censure soit soumise, puis rejetée le 5 février. Le gouvernement Attal, comme le gouvernement Borne avant lui, a donc le droit d’exister, mais sans soutien de la chambre.

... Poursuivre la lecture
Voir plus d'articles