L’IA ne remplacera pas la prise de décision humaine

L’IA ne peut pas remplacer l’esprit humain, ou en tout cas pas pour l’avenir prévisible. Et si ce jour arrive il faudra faire preuve de vigilance extrême.

Partager sur:
Sauvegarder cet article
Aimer cet article 0
Photo by Morning Brew on Unsplash - https://unsplash.com/photos/GkSiiVuG3uI

Promouvoir la liberté n’est pas gratuit

Mais cela peut aider à réduire vos impôts de 66%

Faites un don dès maintenant

Faire un don

L’IA ne remplacera pas la prise de décision humaine

Publié le 29 juillet 2020
- A +

Par Michel Kelly-Gagnon et Alexandre Massaux1.

Les progrès en matière d’IA (Intelligence Artificielle) font naitre beaucoup de rêves et de craintes. On entend de plus en plus des discours promouvant l’idée que l’IA va pouvoir scientifiser les activités humaines et les sciences sociales.

Qu’il s’agisse de remplacer les juges par une IA qui serait chargée de dire le droit et de rendre la justice ou de l’idée que la science économique pourrait juste être calculée et analysée par des ordinateurs, les idées sur l’utilisation de l’Intelligence Artificielle ne manquent pas.

Si nous pouvons nous réjouir que l’IA, en tant qu’innovation, soit bien accueillie, il faut toutefois garder raison et prendre conscience de certaines limites : l’IA ne peut pas remplacer l’esprit humain, ou en tout cas pas pour l’avenir prévisible.

Et si ce jour arrive il faudra faire preuve de vigilance extrême.

L’intelligence artificielle ne peut pas remplacer l’esprit et le cerveau humain

Comme son nom l’indique, l’IA reste artificielle et est moins perfectionnée qu’un encéphale humain. Si elle arrive à copier et à apprendre la logique humaine, elle ne parvient pas à produire la même complexité que cent milliards de neurones connectés entre eux par le million de milliards de synapses du cerveau humain.

De plus, toute décision humaine n’est pas forcement logique. Une partie repose sur des éléments inconscients. Il convient de rappeler que Vilfredo Pareto met en avant dans son Traité de sociologie générale en 1917 que les actions humaines peuvent être « logiques » mais aussi « non-logiques ».

À cet effet, les émotions jouent un rôle majeur dans la prise de décision humaine et ne sont pas compatibles avec les processus des IA. Si une IA peut imiter des émotions, elle ne pourra pas les utiliser pour une prise de décision comme les humains.

Dès lors, concevoir l’IA comme un outil capable de remplacer l’action humaine ou la diriger parait contreproductif. L’idée d’utiliser les machines pour transformer les sciences sociales comme l’économie en de simples algorithmes ne prend pas en compte la réalité de l’activité humaine basée sur l’individu.

Comme le rappelle Ludwig von Mises dans Human Action : « toutes les actions sont effectuées par des individus. Un collectif fonctionne toujours par l’intermédiaire d’un ou de plusieurs individus dont les actions sont liées au collectif en tant que source secondaire. » Dès lors, vouloir réduire les calculs économiques à des algorithmes est impossible du fait qu’ils sont le produit des volontés individuelles de l’ensemble des personnes.

Plus généralement, Friedrich Hayek met en garde contre une planification scientifique dans La route de la servitude : « L’intolérance de la raison, fréquente chez le spécialiste, l’impatience caractéristique de l’expert envers les comportements et les actes du non-initié, le mépris souverain pour tout ce qui n’est pas organisé d’après des schémas scientifiques par des esprits supérieurs » a été une des causes de la montée du totalitarisme en Allemagne.

Vouloir confier à une IA qui sera programmée ou éduquée pour être spécialiste dans son domaine aura des effets néfastes sur la liberté et privera la prise de décision de son humanité.

L’IA sera une aide mais l’humanité doit garder le dernier mot

L’IA peut être une aide précieuse pour la prise de décision mais ne peut pas remplacer la décision finale humaine. Le cas des drones militaires illustre par ailleurs bien le problème : d’un point de vue légal, ceux-ci ne peuvent pas faire feu sans l’autorisation d’un humain.

En matière d’économie qui affecte la vie de tous les individus, l’utilisation de l’IA et des algorithmes doit suivre le même raisonnement. Les machines ne peuvent pas remplacer le développement des théories en matière de science sociales car elles sont l’étude de l’action de l’humanité, ce que n’est pas une machine.

  1. Respectivement PDG et chercheur associé à l’Institut économique de Montréal (iedm.org)
Voir les commentaires (13)

Laisser un commentaire

Créer un compte Tous les commentaires (13)
  • Cela me paraît évident, si l’IA est supérieure à l’humain jusqu’à prendre toutes ses décisions, alors être humain n’a plus aucun intérêt puisque nous deviendrions à notre tour des robots. Ce qui reviendrait à dire que l’humain = Dieu !! Perso je pense qu’il y a une limite aux réalisation de l’intelligence humaine.
    L’IA ne peut être qu’une aide à la décision, tout le reste n’est que foutaise !

  • Toute affirmation pour l’avenir qui ne fait pas usage du conditionnel est dans l’erreur.

    C’est dommage parce que le propos est intéressant mais le titre est à côté de la plaque.

    Le message de l’article n’est pas tant de dire que l’IA ne sera pas en mesure techniquement de prendre des décisions pour l’ensemble de la société, mais que cela ne serait pas souhaitable puisque cela conduirait à supplanter l’action humaine et le choix des individus.

    J’ajouterais, puisque c’est le deuxième article anti IA en quelques jours, que si il nous fait nous méfier des rêveurs qui nous promettent le miracle de l’IA, il faut aussi se méfier des vendeurs de livres récalcitrant qui affirment avec certitude de quoi sera fait ou pas l’avenir.

    Un des thèmes chers à Hayek, auteur justement cité dans l’article, est « the pretence of knowledge ». Notre connaissance du monde actuel étant déjà profondément incomplète, toute personne qui pense pouvoir affirmer de quoi l’avenir sera fait se fourvoie totalement et nous avec.

  • Les délires sur l’IA sont de même nature que les théories du complot :

    Dans les théories du complot, il y a à la base la constatation que de manière globale on nous ment et on nous manipule – sans pouvoir déterminer exactement qui, pourquoi, comment et dans quelle mesure. On élabore alors des explications plus ou moins farfelues qui passent à côté de la réalité et pire génèrent un écran de fumée.

    Dans les délires de l’IA, il y a la frustration d’être dominé par des groupes ou des entreprises à l’aide de puissants traitement des données. On élabore alors des théories impliquant que ce sont les données qui nous manipulent comme si elles avaient une volonté propre, occultant ainsi le fait que ceux qui possèdent les données et les programmes (entreprises ou états) ne veulent pas forcément notre bien ou jouent avec notre destin.

  • La généralisation de l’IA comme aide à la décision va probablement avoir comme effet pervers de rendre les décisionnaires moins critiques, moins compétents et moins responsables (en un mot: bêtes.)
    J’attends impatiemment le premier désastre (économique, faut pas pousser) qui sera directement attribuable à cet effet.
    A ce stade, les idiots se réuniront, bêleront, et prendront la dernière décision de leur vie: celle de laisser l’IA décider à leur place.

    • Je ne suis pas si sur : quand l’administration se lance dans un magnifique projet qui foire lamentablement, la première réaction est de dire que c’est la faute du sous-traitant. Mais comme le sous-traitant peut facilement prouver qu’il a suivi le cahier des charges, on conclut que c’est la faute à pas de chance.

      Avec l’IA, les sous-traitant auront plus de mal à prouver que l’erreur vient du cahier des charges ou des données car l’IA est une « boite noire ».

    • C’est une mise en garde que j’ai lu dans un livre paru en 1980 (Henri Arvon : l’autogestion).. rien de neuf.
      Mais c’est amusant l’IA : on la développe pour nous simplifier la vie. Comme elle doit comprendre au mieux l’humain pour proposer des solutions applicables, on essaye de la faire ressembler à un esprit humain imparfait, alors qu’on voudrait une IA parfaite qui ne se trompe jamais :-).

  • Le nazisme n’était en rien scientifique et logique, c’est le communisme qui prétendait l’être!

    • Si vous prétendez que le nazisme ne s’est pas scientifiquement justifié sur le thème de la race etc, vous avez un grand manque de culture.

  • Il y a une raison mathématique à celà : les machines actuelles sont structurellement limitées aux nombres entiers.

    Tout ce qui les compose, logiciels, etc, suit une logique entière.
    Et toute information qu’on souhaite leur faire analyser doit au préalable être transformée en nombre entier : vidéo, audio (échantillonnage), etc.

    Et tant que ce sera le cas, elles seront limitées face à nous humains qui percevont le monde dans ses nuances.

    Les IA calculent vite, très vite. Mais ne savent faire que ça.

    Sont-elles capables d’aimer ? De ressentir de l’empathie ?
    D’avoir peur ?
    Non.

  • Les commentaires sont fermés.

Promouvoir la liberté n’est pas gratuit

Mais cela peut aider à réduire vos impôts de 66%

Faites un don dès maintenant

Faire un don

Par Scott Shackford. Un article de Reason

Un document de travail récemment publié prétend montrer que les vastes lois sur la confidentialité des technologies mises en œuvre par l'Union européenne en 2018 ont considérablement étouffé l'innovation des apps et potentiellement privé les consommateurs de produits utiles.

Le rapport a été publié par le National Bureau of Economic Research, et il tente de calculer les effets sur les consommateurs du Règlement général sur la protection des données (RGPD), une loi de l'Union européenn... Poursuivre la lecture

Par Alexander Hammond. Un article de HumanProgress

Voici le trente-troisième épisode d’une série d’articles intitulée « Les Héros du progrès ». Cette rubrique est une courte présentation des héros qui ont apporté une contribution extraordinaire au bien-être de l’humanité.

Nos héros de la semaine sont George Hitchings et Gertrude Elion, les deux scientifiques américains qui ont initié le développement de la conception rationnelle des médicaments.

Jusqu’alors, la méthode classique employée pour les découvrir reposait sur un... Poursuivre la lecture

Nous sommes à l’aube d’une nouvelle rupture technologique qui pourrait, à terme, bouleverser le marché de l’emploi. Le développement des solutions d’intelligence artificielle sur des pans entiers du marché de l’emploi aura des externalités positives indéniables, encore trop mal perçues des travailleurs.

Des transformations structurelles sans destruction massive

Selon le rapport de référence « Automatisation, numérisation et emploi » du Conseil d’orientation pour l’emploi (janvier 2017), moins de 10 % des emplois existants seront menacé... Poursuivre la lecture

Voir plus d'articles