Autopiégés par les deepfakes : où sont les bugs ?

Si le chemin vers la diffusion massive de l’IA générative est clair, éprouvé et explicable, d’où vient la crise actuelle autour des deepfakes ?

Partager sur:
Sauvegarder cet article
Aimer cet article 5
Source : image générée par IA

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Autopiégés par les deepfakes : où sont les bugs ?

Publié le 11 février 2024
- A +

Par Dr Sylvie Blanco, Professor Senior Technology Innovation Management à Grenoble École de Management (GEM) & Dr. Yannick Chatelain Associate Professor IT / DIGITAL à Grenoble École de Management (GEM) & GEMinsights Content Manager.

« C’est magique, mais ça fait un peu peur quand même ! » dit Hélène Michel, professeur à Grenoble École de management, alors qu’elle prépare son cours « Innovation et Entrepreneuriat ».

Et d’ajouter, en riant un peu jaune :

« Regarde, en 20 minutes, j’ai fait le travail que je souhaite demander à mes étudiants en 12 heures. J’ai créé un nouveau service, basé sur des caméras high tech et de l’intelligence artificielle embarquée, pour des activités sportives avec des illustrations de situations concrètes, dans le monde réel, et un logo, comme si c’était vrai ! Je me mettrai au moins 18/20 ».

Cet échange peut paraître parfaitement anodin, mais la possibilité de produire des histoires et des visuels fictifs, perçus comme authentiques – des hypertrucages (deepfakes en anglais) – puis de les diffuser instantanément à l’échelle mondiale, suscitant fascination et désillusion, voire chaos à tous les niveaux de nos sociétés doit questionner. Il y a urgence !

En 2024, quel est leur impact positif et négatif ? Faut-il se prémunir de quelques effets indésirables immédiats et futurs, liés à un déploiement massif de son utilisation et où sont les bugs ?

 

Deepfake : essai de définition et origine

En 2014, le chercheur Ian Goodfellow a inventé le GAN (Generative Adversarial Networks), une technique à l’origine des deepfakes.

Cette technologie utilise deux algorithmes s’entraînant mutuellement : l’un vise à fabriquer des contrefaçons indétectables, l’autre à détecter les faux. Les premiers deepfakes sont apparus en novembre 2017 sur Reddit où un utilisateur anonyme nommé « u/deepfake » a créé le groupe subreddit r/deepfake. Il y partage des vidéos pornographiques avec les visages d’actrices X remplacés par ceux de célébrités hollywoodiennes, manipulations reposant sur le deep learning. Sept ans plus tard, le mot deepfake est comme entré dans le vocabulaire courant. Le flux de communications quotidiennes sur le sujet est incessant, créant un sentiment de fascination en même temps qu’une incapacité à percevoir le vrai du faux, à surmonter la surcharge d’informations de manière réfléchie.

Ce mot deepfake, que l’on se garde bien de traduire pour en préserver l’imaginaire technologique, est particulièrement bien choisi. Il contient en soi, un côté positif et un autre négatif. Le deep, de deep learning, c’est la performance avancée, la qualité quasi authentique de ce qui est produit. Le fake, c’est la partie trucage, la tromperie, la manipulation. Si on revient à la réalité de ce qu’est un deepfake (un trucage profond), c’est une technique de synthèse multimédia (image, son, vidéos, texte), qui permet de réaliser ou de modifier des contenus grâce à l’intelligence artificielle, générant ainsi, par superposition, de nouveaux contenus parfaitement faux et totalement crédibles. Cette technologie est devenue très facilement accessible à tout un chacun via des applications, simples d’utilisations comme Hoodem, DeepFake FaceSwap, qui se multiplient sur le réseau, des solutions pour IOS également comme : deepfaker.app, FaceAppZao, Reface, SpeakPic, DeepFaceLab, Reflect.

 

Des plus et des moins

Les deepfakes peuvent être naturellement utilisés à des fins malveillantes : désinformation, manipulation électorale, diffamation, revenge porn, escroquerie, phishing…

En 2019, la société d’IA Deeptrace avait découvert que 96 % des vidéos deepfakes étaient pornographiques, et que 99 % des visages cartographiés provenaient de visages de célébrités féminines appliqués sur le visage de stars du porno (Cf. Deep Fake Report : the state of deepfakes landscape, threats, and impact, 2019). Ces deepfakes malveillants se sophistiquent et se multiplient de façon exponentielle. Par exemple, vous avez peut-être été confrontés à une vidéo où Barack Obama traite Donald Trump de « connard total », ou bien celle dans laquelle Mark Zuckerberg se vante d’avoir « le contrôle total des données volées de milliards de personnes ». Et bien d’autres deepfakes à des fins bien plus malveillants circulent. Ce phénomène exige que chacun d’entre nous soit vigilant et, a minima, ne contribue pas à leur diffusion en les partageant.

Si l’on s’en tient aux effets médiatiques, interdire les deepfakes pourrait sembler une option.
Il est donc important de comprendre qu’ils ont aussi des objectifs positifs dans de nombreuses applications :

  • dans le divertissement, pour créer des effets spéciaux plus réalistes et immersifs, pour adapter des contenus audiovisuels à différentes langues et cultures
  • dans la préservation du patrimoine culturel, à des fins de restauration et d’animation historiques 
  • dans la recherche médicale pour générer des modèles de patients virtuels basés sur des données réelles, ce qui pourrait être utile dans le développement de traitements 
  • dans la formation et l’éducation, pour simuler des situations réalistes et accroître la partie émotionnelle essentielle à l’ancrage des apprentissages

 

Ainsi, selon une nouvelle étude publiée le 19 avril 2023 par le centre de recherche REVEAL de l’université de Bath :

« Regarder une vidéo de formation présentant une version deepfake de vous-même, par opposition à un clip mettant en vedette quelqu’un d’autre, rend l’apprentissage plus rapide, plus facile et plus amusant ». (Clarke & al., 2023)

Comment en sommes-nous arrivés là ?

Comment avons-nous mis au point et démocratisé des outils technologiques de manière aussi peu appropriée, au sens de E.F. Schumacher (1973) dans son ouvrage Small is Beautiful : A Study of Economics as If People Mattered.

L’idée qu’il défend est celle d’une technologie scientifiquement éprouvée, à la fois adaptable aux besoins spécifiques de groupes d’utilisateurs clairement identifiés, et acceptables par toutes les parties prenantes de cette utilisation, tout au long de son cycle de vie, sans dégrader l’autonomie des communautés impliquées.

Considérons la période covid. Elle a très nettement favorisé une « aliénation des individus et des organisations à la technologie », entraînant des phénomènes de perte de contrôle et de confiance face à des utilisations non appropriées du numérique profitant de la vulnérabilité des citoyens (multiplication des arnaques santé par exemple). Ils se sont trouvés sur-sollicités et noyés sous un déluge de contenus, sans disposer des ressources nécessaires pour y faire face de manière pérenne et sécurisée. Avec l’IA générative et la prolifération des deepfakes, le défi d’échapper à la noyade et d’éviter d’être victime de manipulations devient démesuré !

La mécanique allant de la technologie à la société est (toujours) bien ancrée dans la théorie de Schumpeter datant du début du XXe siècle : les efforts et les investissements dans la technologie génèrent du développement économique par l’innovation et la productivité, qui se traduit ensuite en progrès social, par exemple, par la montée du niveau d’éducation. La question de l’adoption de la technologie par le marché de masse est un élément central de la réussite des acteurs économiques.

Comme le souligne très bien le philosophe Alain Damasio, les citoyens adoptent les solutions numériques (faciles d’utilisation et accessibles) et se réfugient dans un « techno-cocon » pour trois raisons principales :

  1. La paresse (les robots font à leur place)
  2. La peur associée à l’isolement (on a un réseau mondial d’amis)
  3. Les super-pouvoirs (le monde à portée de main avec son smartphone)

 

Cela s’applique parfaitement à l’IA générative : créer des contenus sans effort, presque instantanément, avec un résultat d’expert. Ainsi, dans le fantasme collectif, eu égard à la puissance réelle et exponentielle des outils disponibles, nous voilà bientôt tous écrivains, tous peintres, tous photographes, tous réalisateurs… nous voilà capables de produire en quelques minutes ce qui a priori nous aurait demandé des heures. Et dans le même temps, nous servons à l’amélioration continue des performances de ces technologies, au service de quelques grandes entreprises mondiales.

 

Deepfakes : où est le bug ?

Si le chemin vers la diffusion massive de l’IA générative est clair, éprouvé et explicable, d’où vient la crise actuelle autour des deepfake ? L’analyse des mécanismes de diffusion fait apparaître deux bugs principaux.

Le premier bug

Il s’apparente à ce que Nunes et al. (2014) appelle le phénomène « big bang disruption ».

La vitesse extrêmement rapide à laquelle se déploient massivement certaines applications technologiques ne laisse pas le temps de se prémunir contre ses effets indésirables, ni de se préparer à une bonne appropriation collective. On est continuellement en mode expérimentation, les utilisateurs faisant apparaître des limites et les big techs apportant des solutions à ces problèmes, le plus souvent technologiques. C’est la course à la technologie – en l’occurrence, la course aux solutions de détection des deepfakes, en même temps que l’on tente d’éduquer et de réglementer. Cette situation exige que l’on interroge notre capacité à sortir du système établi, à sortir de l’inertie et de l’inaction – à prendre le risque de faire autrement !

Le second bug

Selon Schumpeter, la diffusion technologique produit le progrès social par l’innovation et l’accroissement de la productivité ; mais cette dynamique ne peut pas durer éternellement ni s’appliquer à toutes technologies ! Si l’on considère par exemple la miniaturisation des produits électroniques, à un certain stade, elle a obligé à changer les équipements permettant de produire les puces électroniques afin qu’ils puissent manipuler des composants extrêmement petits. Peut-on en changer l’équipement qui sert à traiter les contenus générés par l’IA, c’est-à-dire nos cerveaux ? Doivent-ils apprendre à être plus productifs pour absorber les capacités des technologies de l’IA générative ? Il y a là un second bug de rupture cognitive, perceptive et émotionnelle que la société expérimente, emprisonnée dans un monde numérique qui s’est emparée de toutes les facettes de nos vies et de nos villes.

 

Quid de la suite : se discipliner pour se libérer du péril deepfake ?

Les groupes de réflexion produisant des scénarii, générés par l’IA ou par les humains pleuvent – pro-techno d’une part, pro-environnemental ou pro-social d’autre part. Au-delà de ces projections passionnantes, l’impératif est d’agir, de se prémunir contre les effets indésirables, jusqu’à une régression de la pensée comme le suggère E. Morin, tout en profitant des bénéfices liés aux deepfakes.

Face à un phénomène qui s’est immiscé à tous les niveaux de nos systèmes sociaux, les formes de mobilisation doivent être nombreuses, multiformes et partagées. En 2023 par exemple, la Région Auvergne-Rhône-Alpes a mandaté le pôle de compétitivité Minalogic et Grenoble École de management pour proposer des axes d’action face aux dangers des deepfakes. Un groupe d’experts* a proposé quatre axes étayés par des actions intégrant les dimensions réglementaires, éducatives, technologiques et les capacités d’expérimentations rapides – tout en soulignant que le levier central est avant tout humain, une nécessité de responsabilisation de chaque partie prenante.

Il y aurait des choses simples que chacun pourrait décider de mettre en place pour se préserver, voire pour créer un effet boule de neige favorable à amoindrir significativement le pouvoir de malveillance conféré par les deepfakes.

Quelques exemples :

  • prendre le temps de réfléchir sans se laisser embarquer par l’instantanéité associée aux deepfakes 
  • partager ses opinions et ses émotions face aux deepfakes, le plus possible entre personnes physiques 
  • accroître son niveau de vigilance sur la qualité de l’information et de ses sources 
  • équilibrer l’expérience du monde en version numérique et en version physique, au quotidien pour être en mesure de comparer

 

Toutefois, se pose la question du passage à l’action disciplinée à l’échelle mondiale !

Il s’agit d’un changement de culture numérique intrinsèquement long. Or, le temps fait cruellement défaut ! Des échéances majeures comme les JO de Paris ou encore les élections américaines constituent des terrains de jeux fantastiques pour les deepfakes de toutes natures – un chaos informationnel idoine pour immiscer des informations malveillantes qu’aucune plateforme media ne sera en mesure de détecter et de neutraliser de manière fiable et certaine.

La réalité ressemble à un scénario catastrophe : le mur est là, avec ces échanges susceptibles de marquer le monde ; les citoyens tous utilisateurs d’IA générative sont lancés à pleine vitesse droit dans ce mur, inconscients ; les pilotes de la dynamique ne maîtrisent pas leur engin supersonique, malgré des efforts majeurs ! Pris de vitesse, nous voilà mis devant ce terrible paradoxe : « réclamer en tant que citoyens la censure temporelle des hypertrucages pour préserver la liberté de penser et la liberté d’expression ».

Le changement de culture à grande échelle ne peut que venir d’une exigence citoyenne massive. Empêcher quelques bigs techs de continuer à générer et exploiter les vulnérabilités de nos sociétés est plus que légitime. Le faire sans demi-mesure est impératif : interdire des outils numériques tout comme on peut interdire des médicaments, des produits alimentaires ou d’entretien. Il faut redonner du poids aux citoyens dans la diffusion de ces technologies et reprendre ainsi un coup d’avance, pour que la liberté d’expression ne devienne pas responsable de sa propre destruction.

Ce mouvement, le paradoxe du ChatBlanc, pourrait obliger les big techs à (re)prendre le temps d’un développement technologique approprié, avec ses bacs à sable, voire des plateformes dédiées pour les créations avec IA. Les citoyens les plus éclairés pourraient avoir un rôle d’alerte connu, reconnu et effectif pour décrédibiliser ceux qui perdent la maîtrise de leurs outils. Au final, c’est peut-être la sauvegarde d’un Internet libre qui se joue !

Ce paradoxe du ChatBlanc, censurer les outils d’expression pour préserver la liberté d’expression à tout prix trouvera sans aucun doute de très nombreux opposants. L’expérimenter en lançant le mois du ChatBlanc à l’image du dry january permettrait d’appréhender le sujet à un niveau raisonnable tout en accélérant nos apprentissages au service d’une transformation culturelle mondiale.

 

Lucal Bisognin, Sylvie Blanco, Stéphanie Gauttier, Emmanuelle Heidsieck (Grenoble Ecole de Management) ; Kai Wang (Grenoble INP / GIPSALab / UGA), Sophie Guicherd (Guicherd Avocat), David Gal-Régniez, Philippe Wieczorek (Minalogic Auvergne-Rhône-Alpes), Ronan Le Hy (Probayes), Cyril Labbe (Université Grenoble Alpes / LIG), Amaury Habrard (Université Jean Monnet / LabHC), Serge Miguet (Université Lyon 2 / LIRIS) / Iuliia Tkachenko (Université Lyon 2 / LIRIS), Thierry Fournel (Université St Etienne), Eric Jouseau (WISE NRJ).

Voir les commentaires (13)

Laisser un commentaire

Créer un compte Tous les commentaires (13)
  • Certains mettent en doute l existence de Jésus. Cela peut se tenir : 2000 ans, peu de traces historiques. Aujourd’hui l information est inversée : pléthorique, diarrhéique. Et dans 2000 ans (à supposer qu’il en reste qq chose) les historiens auront un travail colossal et peut-être impossible pour démêler le vrai du faux. J imagine qu ils reviendront au réel : les fouilles, les objets, les corps, les poubelles laissée, bref le réel cher aux libéraux.

  • En premier..
    Le deep fake « marche » si il est rare…quand vous aurez vu 1000 vidéos « bizarres » sinon clairement fake, vous accorderez peu de poids à la suivante.

    Le mensonge n’est pas encore un crime sauf dans certains cas…
    Au point de vue politique le vote d’unepersonne n’a pas à être justifié. ça signifie un candidat peut être élu à cause de son sourire et des ses fausses dents. Actuellement un Mélenchon prospère en étant des propos authentiques assez qui posent quelques questions.
    Mais comme une personne ne justifie pas de son vote…vous ne pouvez pas opposer si celui ci est fondé sur des idées fausses..

    De nombreux média accordent de l’importance à twitter.. Une chose qui me frappe aussi est que les gens insultent anonymement. Ce qui souvent les protège personnellement de la démonstration qu’ils racontent eux même n’importe quoi.

    Peut être ce qui va se passer est que les gens vont enfin ne plus se fier aux réseaux sociaux. et aux politiques? O En revenir aux argumentations plus longues..

    J’ai un gros doute sur le controle gouvernemental de la vérité….mais jai un doute tout aussi grand sur la sagesse démocratique…

    Education à l’esprit critique et à la méthode…

    On peut être pessimiste à ce sujet..on a interdit le glyphosate.  » il faut croire les scientifiques »..etc…
    et ce sans deep fake juste avec l »émotion.et le complicité parfois involontaire des « scientifiques ».
    Il suffit d’alterer un mot, pour modifier un « fait »…Toute personne raisonnable prend avec le grain de sel necessaire un article qui montre qu’un truc est statistiquement significatif.

    Dans ce genre de situation ce qui semble marcher est l’emergence d’organe de presse avec un INTERET à verifier la véracité des faits. Et un lectorat éduqué à l(esprit critique.
    Certes les fact checkers ne brillent pas encore par leur objectivité mais ils existent.
    On peut penser aussi aux accusations criminelles…la construction de faux alibis..

    Mon souci essentiel est lié à l’éducation… car sans l’educatyion qi va bien, le deep fake permet le pire.

    Mais songeons bien…quels régimes furent les plus adeptes du deep fake? les régime libres ou les régimes liberticides?
    A mes yeux ça suggère que la réponse n’est pas liberticide…..

    mais encore une fois…éducation à l’esprit critique…

    • bric a brac rédaction..mais pas réfléchi a deep fake nonplus…

    • sans deep fake, une partie du « public » a déjà perdu confiance dans les médias..mais souvent les regarde.. et c’est parfois sain…ça amène celui qui veut savoir à creuser un peu… il trouve rarement des mensonges véritables mais du parti prix..de lomission…de l’ambiguité délibérée et de la dialectique.

      car une partie des faits ce n’est pas tous les faits…

      le politique ment quasiment toujours ou distord la vérité..
      le media professe metier de de voir plus clair mais parfois ment aussi..
      mais il prend un risque de démenti…qui nuit à soninteret..de l’importance de la pluralité.
      internet permet de rendre le médiateur anonyme au point qui ne mediate rien mais « crée » l’information ».

      Se méfier d’une info donnée par un anonyme.

      vous remarquez que les fausses informations ont précédé lia …donc lia n’ets le vrai problème… comme la video surveillance n’est pas un problème pour la la vie privée.

      les bidules ne commettent pas ( encore) de crimes mais des gens.

  • L’IA, c’est comme un ascenseur. C’est magique pour monter ses courses au 6ème étage.
    C’est à supprimer en général si on veut rester en forme.
    La sédentarité, physique ou intellectuelle, est mauvaise pour l’organisme.
    « C’est dans l’effort que l’on trouve la satisfaction et non dans la réussite. Un plein effort est une pleine victoire. » (Gandhi)

    • L IA ne produit qu a partir de gigantesques bases de données
      La gestion de cet historique n est qu un tremplin pour nous supprimer de nombreuses taches fastidieuses et répétitives notamment intellectuelles ( ce qui est tout a fait nouveau) pour des diagnostics, des analyses……
      Et laisse toute sa place à l innovation et a la recherche…….

      • l’ia ne dit pas être de l’ecploitation de banque de données justement. mais « autre chose »…

        et dit pouvoir faire ce que fait l’humain intellectuellement. et « mieux »..

        beaucoup doute encore que le terme intelligence soi adéquat.

        curieux..si je ne comprends pas ce que vous dites je vous trouve ou stupide ou intelligent.

        moi je veux VOIR le mieux.. que ce soit une intelligence ou la force brute….faire je job…

      • Avec une base de données , vous pourrez singer une conversation…

        Pourrez vous faire des progrès en math?

  • Très bon article, une mise en garde, pourquoi ne pas arrêter internet 2 heures par jour entre 12 heures et 14 heures par exemple

  • L IA n est qu un outil à notre disposition…..il sera ce que nous en ferons…..
    Remarquons simplement qu une fois de plus nos amis américains sont a la pointe de la tech…….que les chinois vont bientôt copier…….. quand les européens ont déjà réglementé
    Malheureusement l histoire bégaie

  • Le deepfake d’Obama ne m’a pas convaincu. Le ton, la façon de parler, n’est pas celle d’Obama. Bref, tous ces « deepfakes » veulent vous faire avaler des trucs vraiment incroyables, alors qu’il faudrait alors des preuves incroyables pour me convaincre.
    Il serait bien bien facile de biaiser les choses plutôt que de raconter n’importe quoi (couper un mot, sortir une phrase de son contexte etc). Mais voyez vous, cela se fait déjà depuis longtemps. Il suffit de regarder les médias actuels. Bref, un peu d’esprit critique protégerait bien de tout cela, mais le problème c’est que cela protège aussi de la propagande d’état…

  • « une multiplication des opérations d’influence qui se reposent sur les outils numériques car il est aujourd’hui bien plus facile de créer des discours ou des faux sites web grâce à l’intelligence artificielle générative »
    Bigre ça fait peur !
    Mais ça reste quand même du pipi de chat par rapport à la soumission inconditionnelle du PCF au Kremlin de 1920 à 1991, non ?

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Ce vendredi 2 février, les États membres ont unanimement approuvé le AI Act ou Loi sur l’IA, après une procédure longue et mouvementée. En tant que tout premier cadre législatif international et contraignant sur l’IA, le texte fait beaucoup parler de lui.

La commercialisation de l’IA générative a apporté son lot d’inquiétudes, notamment en matière d’atteintes aux droits fondamentaux.

Ainsi, une course à la règlementation de l’IA, dont l’issue pourrait réajuster certains rapports de force, fait rage. Parfois critiquée pour son ap... Poursuivre la lecture

Voilà maintenant quatre ans que le Royaume-Uni a officiellement quitté l'Union européenne. Depuis le Brexit, la Grande-Bretagne a connu trois Premiers ministres, et d'innombrables crises gouvernementales. Néanmoins, malgré le chaos de Westminster, nous pouvons déjà constater à quel point les régulateurs du Royaume-Uni et de l'Union européenne perçoivent différemment l'industrie technologique. Le Royaume-Uni est un pays mitigé, avec quelques signes encourageants qui émergent pour les amateurs de liberté et d'innovation. L'Union européenne, qua... Poursuivre la lecture

2
Sauvegarder cet article

It has been four years since the UK formally left the European Union. Since Brexit, Britain has been through three prime ministers and countless government crises. Nonetheless, despite the chaos of Westminster, it is already becoming clear how differently regulators in the UK and EU view the technology industry. The UK is a mixed bag, with some encouraging signs emerging for fans of freedom and innovation. The EU, meanwhile, is pursuing a path of aggressive antitrust regulation on various fronts.

 

AI ‘Bletchley Declaration’

Now... Poursuivre la lecture

Voir plus d'articles