« Terminator », l’IA et le travail : l’avenir sera ce que nous en ferons

L’IA va-telle nous remplacer, voire nous annihiler ? A l’occasion de la sortie du dernier opus de Terminator, réflexion autour de l’Homme et de la machine.

Partager sur:
Sauvegarder cet article
Aimer cet article 0
T800 by Hamish Irvine(CC BY-NC 2.0)

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

« Terminator », l’IA et le travail : l’avenir sera ce que nous en ferons

Publié le 4 novembre 2019
- A +

Par Julien Pillot1.
Un article de The Conversation

Si la sortie d’un nouvel opus de Terminator n’est plus un événement en soi, il est une dimension qu’on ne saurait renier à la franchise cinématographique de James Cameron : elle a toujours su dépeindre avec un certain brio les interactions hommes-machines en extrapolant les craintes – parfois fantasmées – que nos créations métalliques, et désormais algorithmiques, suscitent chez nous.

Pourraient-elles nous remplacer, voire nous annihiler ? Ce n’est pas un hasard si la saga a acquis ses lettres de noblesse à une époque où les chaînes de montage des industries occidentales connaissaient une vague de robotisation sans précédent et où les inquiétudes autour d’une intelligence artificielle à même de nous supplanter allaient crescendo.

Humaine augmentée

Comme avaient su le faire les deux premiers épisodes de la saga en leur temps, la nouvelle itération de Terminator surfe sur cette mouvance on ne peut plus actuelle. Elle a su déplacer géographiquement le problème de la robotisation des tâches productives dans les pays émergents, et présente toujours une vision de l’avenir dystopique où les humains lutteraient pour leur survie dans un monde régi par une IA militaire qui aurait fini par se retourner contre ses créateurs.

Mais, reprenant une idée bien mal exploitée de Terminator Renaissance, ce nouvel opus va plus loin en mettant en scène le personnage de Grace (interprété par Mackenzie Davis), une « Humaine augmentée » par la technologie, envoyée depuis le futur par la résistance pour protéger dans le présent celle qui deviendra leur leader.

Impossible de ne pas y voir un clin d’œil appuyé aux débats qui animent actuellement la communauté civile et scientifique autour du transhumanisme et des apports de l’Intelligence Artificielle (IA) entre ses plus fervents thuriféraires et ses plus ardents détracteurs.

L’IA, entre attraction et répulsion

Ces débats sont légitimes. En tant qu’évolution naturelle de l’économie de la donnée qui a déjà transformé en profondeur les marchés et les usages, l’IA va largement façonner nos économies durant les prochaines décennies. Voilà une technologie apprenante qui est d’ores et déjà capable de faire mieux que l’Humain dans bien des domaines complexes et qui porte des promesses applicatives colossales, par exemple dans le champ de la santé, de l’énergie ou de la (cyber)sécurité.

Le rapport Villani sur la question montre bien que les enjeux économiques et géostratégiques sont potentiellement colossaux. D’ailleurs, les États et entreprises ne s’y trompent pas : chaque jour apporte son lot de nouveaux plans stratégiques et autres projets ambitieux autour de l’IA.

Ses détracteurs, quant à eux, appellent à une régulation stricte. Ils redoutent en effet que le développement de l’IA n’ouvre le champ à de graves dérives éthiques et puisse aboutir à un futur dystopique dans lequel l’Homme serait aliéné et mis au service de la machine. Et tandis que l’Unesco appelle à une éthique internationale de l’IA, le Congrès US cherche à mieux encadrer son développement.

Dans le domaine du travail, ce sont les spectres de la destruction d’emplois et du déclassement qui planent. Or, s’il est indéniable que l’IA va transformer le monde du travail, il nous semble nécessaire de démêler ce qui relève du fantasme de ce qui nous guette à plus ou moins brève échéance.

L’IA et la destruction créatrice

Commençons déjà à rappeler une évidence à propos du progrès technique : la technologie est créée par les scientifiques pour que l’on puisse se passer d’eux. Concrètement, cela implique que toute innovation technologique a tout à la fois un impact économique (les applications dérivées de la technologie et les gains de productivité qu’elles engendrent) et un impact social (la destruction ou la transformation des métiers rendus moins nécessaires du fait de l’innovation). Vouloir aller à l’encontre de ce mouvement perpétuel de créations/destructions revient à entraver l’innovation, voire à la renier.

L’innovation étant un processus des plus incertains, il serait hasardeux d’estimer l’ampleur de la destruction d’emplois à moyen terme imputable à l’IA. Les tentatives en ce sens ont abouti à des écarts particulièrement déroutants, de 47 % des emplois US menacés à terme selon des chercheurs d’Oxford à… 9 % pour les pays de l’OCDE selon une autre étude.

Mieux vaut alors s’attacher à l’essentiel : si l’extinction des compétences utiles (et des métiers afférents) est un cycle naturel, alors l’IA n’est pas plus à blâmer que n’importe quelle autre technologie passée ou à venir. Ce n’est pas l’IA qui a causé la disparition progressive des guichetiers et des agents de caisse dans les hypermarchés. Et l’IA n’aura que peu à voir avec la destruction massive d’emplois à venir dans la filière diesel.

De l’IA et des Hommes

L’IA, en revanche, se nourrit de toutes les données disponibles en abondance dans une société hyper connectée. Elle s’appuie également sur les progrès rapides en matière de deep et de machine learning (apprentissage automatique) et de capacités de calcul (et ce, même si la loi de Moore apparaît plus controversée que jamais). Dire que l’IA bénéficie d’un terreau favorable pour se développer à marche accélérée relève donc de l’euphémisme.

Il faut donc se préparer à ce que les emplois les plus exposés à l’automatisation subissent de plein fouet son inexorable développement. En extrapolant, tous les emplois reposant sur des choix et actions prédéfinis, des séquences répétitives et ne laissant que peu de place à l’initiative sont déjà transformés, voire en cours de remplacement, par des technologies existantes. L’IA, dans sa version « faible » (narrow AI) étendra probablement le spectre à certaines tâches intellectuelles de faible valeur ajoutée… mais ne devrait pas supplanter l’intelligence humaine avant de nombreuses années.

En effet, contrairement à sa version « forte » (full AI) qui alimente bien des fantasmes en matière de créativité et d’autonomie, l’IA que nous connaissons restera longtemps encore limitée dans ses applications : reconnaissances multiples (de langages, de formes tumorales, de visages…), résolution rationnelle de problèmes plus ou moins complexes (robo-advisoring dans la banque et l’assurance, transports autonomes…), et prédictions (de maladies, d’intentions d’achats…). Il est évident que dans bien des domaines l’IA fait déjà mieux que l’Humain : elle permet des gains d’efficacité substantiels, et rend les systèmes plus efficaces.

Mais, pour l’heure, l’IA ne peut faire que ce pour quoi elle a été programmée. Une IA spécialisée dans la conduite autonome fera un bien piètre joueur d’échecs. Et une IA entraînée à jouer au go aura bien des difficultés à opérer une reconnaissance faciale. En un mot, si les IA actuelles sont déjà capables de faire bien mieux que les humains dans leurs domaines applicatifs, elles se révèlent bien incapable de faire ce que le cerveau humain parvient à réaliser naturellement : traiter une multitude de tâches diverses avec efficacité et une grande flexibilité adaptative.

Plus encore, on est encore loin de l’IA autonome et apprenante, capable de prendre des décisions en lieu et place d’êtres humains, ces êtres dotés de sensibilité, capables de s’adapter à leur environnement, d’interagir avec d’autres intelligences complexes et imprévisibles, de faire preuve d’empathie, voire même de substituer la morale à l’efficacité.

À ce propos, il est d’ailleurs particulièrement intéressant de noter que les emplois de commerçant, de libraire, ou de barman, n’ont pas disparu avec les technologies susceptibles de les remplacer (liseuses électroniques, e-stores, machines expresso). Tous se sont transformés pour faire ce que la machine ne saura faire de sitôt : créer l’expérience sociale attendue. L’hôtelier japonais qui comptait 243 robots de service l’a récemment appris à ses dépens : faisabilité technique ne vaut pas automatiquement acceptabilité sociale et donc, devenir commercial.

Ce qui ne peut être évité, il faut l’embrasser

Non, tous les emplois ne seront donc pas affectés par l’IA, notamment sur le moyen terme. Non pas tant que les effets d’hystérèse ou la réglementation ralentiront son adoption par les organisations et les individus, mais tout simplement parce que la technologie sera confrontée longtemps encore à des limites difficilement dépassables.

Non seulement elle ne sera pas capable de remplacer les emplois de haut niveau avant de nombreuses années (par exemple, dans la santé), mais en outre elle restera longtemps limitée à l’augmentation du potentiel humain, pour créer des « humains augmentés par la technologie ». En creux, cela invite les instituts d’enseignement supérieur à la mise en place de programmes de formation à même de préparer les individus à travailler en symbiose avec l’IA.

Car rien ne saurait plus entraver son développement. Sa pénétration progressive dans les foyers, les organisations, les SI et les usages devrait d’abord être envisagée comme le moyen de lutter contre des inefficiences manifestes résultant de la simple « bêtise humaine ».

Développée par l’Homme et apprenant de l’Homme, l’IA sera ce que nous en ferons. Plutôt que de la blâmer pour ce qu’elle n’est pas (encore), ne devrions-nous pas œuvrer collectivement à ce qu’elle ne réplique pas nos propres inefficiences ? Comme une superbe rémanence de la conception de Sarah et John Connor dans Terminator 2 : « no fate, but what we make » Pas de futur écrit, mais ce que nous en ferons.

Sur le web-Article publié sous licence Creative Commons

  1. Enseignant-Chercheur en Economie et Stratégie (Inseec U.) / Pr. et Chercheur associé (U. Paris Saclay), INSEEC School of Business & Economics.
Voir les commentaires (11)

Laisser un commentaire

Créer un compte Tous les commentaires (11)
  • J’attends avec impatience que les utérus artificiels soient au point pour me trouver une petite amie robot. Dur dur le célibat.

    • Peut etre bien que ton amie robot préféra l’endurance du monsieur robot….sinon , y a des sites spécialisés pour les humains désespérés

      • Les filles sur ces sites manquent en général d’empathie. Je cherche une personne (une robote) qui s’intéresse à ma beauté intérieure.

        • Pour s’interesser a votre beaute interieure .il faut l’exterioriser, conseil d’ami vraiment moche a l’intérieur…mais qui ne le montre pas ha ha ha

  • L’avenir….avoir un bebe a l’ancienne ,ou un bebe mecanique qui ne braille’pas toute la nuit ,ne perd pas ses dents ,a une adolescence studieuse etc …le choix est rapide a faire ,le bebe mecanique…la disparition de l’homme imparfait est irrémédiable !

  • Tant que les ordinateurs resteront « coincés » dans une logique numérique (binaire, ou qbits pour les versions quantiques), ils ne pourront pas remplacer les humains dans tous les domaines.
    Car tout un pan de l’univers échappera à leur compréhension.

    Certes ils sont rapides, très rapides. Mais ils ne sont que ça, des machines à calculer très vite.
    Ils sont un excellent complément à l’humain, notamment pour le débarrasser des taches répétitives.

    La raison est mathématique :

    Les logiciels qui font fonctionner les machines sont des suites de 0 et 1. En gros, des nombres entiers.
    L’ensemble des logiciels possible est un infini dénombrable (on peut compter ses éléments) : l’ensemble des nombres entiers.

    Par opposition avec un ensemble indéfini indénombrable dont on ne peut compter les éléments un a un : exemple l’ensemble des nombres réels, ou encore l’ensemble des problèmes auxquels est confrontée l’humanité.

    En mathématique, il n’existe pas de bijection entre un indéfini dénombrable et un indéfini indénombrable.
    C’est à dire, qu’il n’existe pas de méthode ou de procédé pour trouver un unique nombre entier correspondant à un nombre réel précis.

    Ou pour le dire autrement, il y a de nombreux problèmes auxquels est confronté l’humanité qui ne trouveront jamais de logiciel pour y répondre à 100%. On ne peut trouver qu’au mieux des solutions approchantes.

    Les machines limitées aux nombres entiers sont et resteront complètement incapables d’appréhender cette part du réel.

    Et ça justifie aussi le travail des informaticiens : trouver le nombre entier approchant le mieux la réalité d’un problème soumis…

    • vous avez peut être aussi une vision fausse de l intelligence..
      ce n’est jamais qu’un fruit de l’évolution, un outil de survie comme les autres. les humains pensent que c’en est le fruit le plus abouti..
      un des trucs les plus communs quand on »affronte »une machine est de lui attribuer un comportement intelligent, on pense qu’elle a une intention. c’est sans dote un trait de notre cerveau de vouloir voir une intelligence..un dessein.. parce que ça fait partie de nos mécanismes pour anticiper..

      et quand nous imaginons une intention à une machine il arrive que notre réponse soit émotionnelle..
      ce qui pourrait faire « peur » est de donner à un machine un dessein de survie qui primerait les autres fonctions..mais ce pourrait être dangereux avec une machine relativement idiote. Des tas de machine absolument non intelligentes tuent des gens.

      on a eu ce genre de débats au début de la mécanisation aussi…

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Ce vendredi 2 février, les États membres ont unanimement approuvé le AI Act ou Loi sur l’IA, après une procédure longue et mouvementée. En tant que tout premier cadre législatif international et contraignant sur l’IA, le texte fait beaucoup parler de lui.

La commercialisation de l’IA générative a apporté son lot d’inquiétudes, notamment en matière d’atteintes aux droits fondamentaux.

Ainsi, une course à la règlementation de l’IA, dont l’issue pourrait réajuster certains rapports de force, fait rage. Parfois critiquée pour son ap... Poursuivre la lecture

Par Dr Sylvie Blanco, Professor Senior Technology Innovation Management à Grenoble École de Management (GEM) & Dr. Yannick Chatelain Associate Professor IT / DIGITAL à Grenoble École de Management (GEM) & GEMinsights Content Manager.

« C’est magique, mais ça fait un peu peur quand même ! » dit Hélène Michel, professeur à Grenoble École de management, alors qu’elle prépare son cours « Innovation et Entrepreneuriat ».

Et d’ajouter, en riant un peu jaune :

« Regarde, en 20 minutes, j’ai fait le travail que je souhait... Poursuivre la lecture

Voilà maintenant quatre ans que le Royaume-Uni a officiellement quitté l'Union européenne. Depuis le Brexit, la Grande-Bretagne a connu trois Premiers ministres, et d'innombrables crises gouvernementales. Néanmoins, malgré le chaos de Westminster, nous pouvons déjà constater à quel point les régulateurs du Royaume-Uni et de l'Union européenne perçoivent différemment l'industrie technologique. Le Royaume-Uni est un pays mitigé, avec quelques signes encourageants qui émergent pour les amateurs de liberté et d'innovation. L'Union européenne, qua... Poursuivre la lecture

Voir plus d'articles