Intelligence Artificielle et éthique : le contresens navrant de Cédric Villani

Le titre-même du rapport de Cédric Villani « Donner un sens à l’IA » est problématique. Quand on regarde l’histoire de l’innovation, le sens a toujours été donné a posteriori.

Par Philippe Silberzahn.

Ainsi donc avec le rapport Villani sur l’intelligence artificielle, la France a renoué avec une vieille tradition : demander à quelqu’un d’intelligent d’écrire un rapport idiot. Enfin idiot, on se comprendra : le rapport que notre Médaille Fields vient de rédiger n’est pas tant idiot que convenu.

Nous sommes en retard sur l’IA, vite un plan national. Des subventions, des initiatives, une agence, tout plein de petits fours et de pique-assiettes, la routine française, quoi. La montagne a accouché d’une souris, les Chinois se marrent bien. Mais les faiblesses de ce rapport ont été soulignées avec talent par d’autres, inutile d’y revenir. Ce qui me semble important cependant, c’est le lien que le rapport fait avec l’éthique.

Le titre-même du rapport « Donner un sens à l’IA » est problématique. Quand on regarde l’histoire de l’innovation, le sens a toujours été donné a posteriori. Et ce pour une raison très simple : les ruptures technologiques présentent toujours des situations inédites sur le plan légal, social et éthique. Il est très difficile, voire impossible, de penser ces ruptures avant qu’elles ne se produisent, et avant que les effets ne soient visibles.

Penser dans le vide

On risque de penser dans le vide. Lorsque McKinsey conduit une étude de marché pour AT&T en 1989 pour évaluer le potentiel de la téléphonie mobile, les résultats sont désastreux : personne ne voit l’intérêt d’avoir un téléphone mobile. Personne ne peut simplement imaginer ce qu’on ferait avec. Seule l’utilisation effective a révélé les possibilités de la technologie, de même qu’aujourd’hui seule l’utilisation de Facebook en révèle les dangers pour la vie privée.

Plus généralement, les applications d’une nouvelle technologie sont impossibles à anticiper. Lorsque les ingénieurs français et autrichien découvrent les ultra-sons en 1911, ils s’en servent pour détecter les sous-marins. Quarante ans après, cette technologie est utilisée en médecine, c’est l’échographie.

Cette utilisation est totalement imprévue et d’ailleurs, il était initialement question que ce soit pour la détection des cancers. Aujourd’hui, l’échographie est devenue banale et peu chère, à tel point qu’elle est utilisée dans les pays pauvres, en particulier en Chine et en Inde.

Utilisée pour l’avortement sélectif, elle est directement responsable du fait notamment qu’environ 25 millions de femmes ne sont pas nées en Chine, causant un déséquilibre des sexes qui entraîne de lourds problèmes sociaux et donc politiques. Qui aurait pu penser qu’une technologie mise au point en Europe pour la lutte anti sous-marine soit la cause, un siècle plus tard, d’un bouleversement social en Asie ? Penser les conséquences de l’échographie a priori aurait été totalement vain.

La dualité de la technologie

Mais il y a pire. Toute technologie est duale, au sens où elle peut servir à faire le bien comme le mal. Imaginez que vous soyez ministre de l’Environnement dans un pays éthique qui a mis le principe de précaution dans sa constitution (exemple fictif bien-sûr). Un groupe d’industriels vient vous voir pour obtenir l’autorisation préalable nécessaire à la commercialisation de leur nouvelle technologie.

Elle apportera de toute évidence des bienfaits immenses, facilitant la vie de nombreux habitants. Son seul défaut : elle tuera environ un million de personnes par an dans le monde. Que faites-vous ? Vous l’interdirez probablement et mettrez un comité d’éthique sur le dossier. Cette technologie ? C’est l’automobile.

En plaçant l’IA au service de l’éthique, le rapport commet donc deux erreurs : d’une part il ne se donne aucune chance de penser l’éthique de l’IA correctement, car nous penserons dans le vide – nous ne pourrons penser qu’en faisant, et d’autre part il condamne la France à regarder les autres danser depuis le balcon. Antoine Petit, le patron du CNRS lors de la conférence AI For Humanity où était présenté le rapport Villani, nous invitait ainsi à éviter un écueil :

Ne pas devenir les spécialistes de l’éthique tandis que les Chinois et les Américains deviennent des spécialistes du business.

C’est tout l’enjeu, et à vouloir mettre l’IA d’entrée de jeu au service de la diversité, de l’égalité homme-femme, du bien commun et des services publics, c’est sacrifier aux modes du moment en se trompant de combat. On demandait à Cédric Villani de nous dire comment la France pouvait rattraper son retard en IA, c’est-à-dire de poser un raisonnement industriel, pas de signaler sa vertu à l’intelligentsia post-moderniste qui gouverne la pensée de ce pays.

Sans compter que comme souvent dans ces cas-là, le sens que l’on donne à éthique est bien restreint. Il peut être éthique de ne pas vouloir développer une IA aux conséquences négatives, mais il peut être également éthique d’essayer pour voir, car ce n’est qu’en agissant que nous saurons.

Les entrepreneurs savent cela depuis longtemps, nos savants intelligents et ceux qui nous gouvernent l’ignorent, et se condamnent peu à peu à la paralysie par excès de prudence et, au fond, par peur du futur. Nous devenons un vieux pays, et laissons progressivement les autres développer l’avenir. Au fond, le rapport Villani est un rapport de vieux, la hype de notre ami Cédric en plus.

Pour une bonne analyse critique du rapport Villani, voir l’article d’Olivier Ezratty ici : Ce que révèle le Rapport Villani.

Sur le web