Au niveau des entreprises, certains présenteront l’IA comme une aide au service des utilisateurs. Sous un autre angle, cette « aide » peut être considérée comme un enfermement progressif de l’usager en fonction de ses utilisations d’internet, des réseaux sociaux, etc. Pour reprendre les propos de Paul Watzlawik (École de Palo Alto), des algorithmes que je qualifierai d’enfermement proposent « toujours plus de la même chose » pour « toujours plus du même résultat » et transforment progressivement l’Internet de l’usager lambda, non pas en une porte-fenêtre grande ouverte sur le monde mais en un judas renforçant ses croyances et sa vision du monde bien loin de l’ouverture sur ce dernier.
Se pose alors la question du libre arbitre, de la vie privée ; un souci qui n’est certes pas d’ordre algorithmique, l’important étant (pour certains) la récupération de la data, et tendre ainsi vers le Graal : le marketing prédictif. À titre d’exemple, la Française des jeux a testé pendant trois mois un logiciel d’analyse du visage évaluant si les utilisateurs sont majeurs, a indiqué mercredi 5 avril un responsable de la start-up Yoti (membre du Laboratoire pour la protection de l’enfance mis en place par l’Élysée en novembre). Dans quel cadre légal se fait cette expérimentation à l’insu des consommateurs ? Je ne le sais pas. Notons toutefois que Florian Chevoppe-Verdier, en charge de la politique publique chez Yoti, a reconnu que le système n’était pas infaillible : « par exemple, une vie dans la rue vieillit prématurément le visage ».
C’est pourquoi au Royaume-Uni, où cette solution est utilisée dans des hypermarchés pour l’achat d’alcool, Yoti a refusé d’évaluer l’âge des migrants. Un aveu de faiblesse ? Vous avez dit discrimination ? Fiabilité discutable ? L’enfer est toujours pavé de bonnes intentions. Dans le contexte du contrôle des individus, il me semble que cette voie soit de plus en plus encombrée par des intérêts commerciaux.
L’IA au service de notre humanité ?
En ce qui concerne les États, sous de nombreux aspects, usages et applications, l’IA est également vendue à la population comme étant la panacée.
Or, une majorité de la population est ignorante des méta-analyses relatives à la vidéosurveillance et ne peut que croire dans le mythe de l’efficacité proposée par les pouvoirs publics sous des prétextes sécuritaires. La surveillance augmentée algorithmique dédouane de leurs responsabilités les personnes en charge de la sécurité des citoyens. Le « technosolutionnisme » poussé à son paroxysme sans moyens humains est à la fois inutile et non fiable. J’en veux pour preuve la tragédie de Nice, la ville alors la plus vidéo-surveillée de façon traditionnelle.
Pour autant mon propos dans cet article n’est pas de nier le potentiel de l’IA au service de notre humanité, mais bien d’alerter sur les expérimentations douteuses et les dérives potentielles si la préoccupation éthique ne s’installe pas au cÅ“ur du débat. À ce jour, quels que soient les utilisateurs de l’IA (entreprises/États), il en va de l’avenir de nos sociétés de pouvoir s’assurer qu’elle soit utilisée par ces derniers de manière responsable et transparente en respectant les droits à la vie privée et à la liberté individuelle et en minimisant les biais et les inégalités.
Plus de 1100 personnalités, dont l’entrepreneur Elon Musk et le cofondateur d’Apple Steve Wozniak, ont demandé une pause de six mois dans la recherche sur l’intelligence artificielle. « Ils se disent convaincus que les robots conversationnels comme ChatGPT peuvent présenter de graves risques pour la société. » Bill Gates est fermement opposé à la perspective de ce moratoire sur le développement de l’intelligence artificielle tout en reconnaissant les risques posés par l’IA !
Le ton est donné. N’en déplaise à Bill Gates, science sans conscience n’est que ruine de l’âme. Et à ce stade balbutiant, il existe plusieurs types de biais dans les systèmes d’IA pouvant affecter la précision et l’équité des résultats produits et présenter des dangers pour notre humanité et nos démocraties.
Quant au risque évoqué de ChatGPT par les 1100 personnalités, s’il en est quelques-uns, ce risque des robots conversationnels justifiant un moratoire prête à sourire quand nous sommes déjà à l’ère des robots tueurs autonomes que j’évoquerai. Les robots conversationnels sont l’arbre qui cache une forêt d’épines !
Prendre en compte certains biais
Quel que soit l’usage qui en est fait par les États ou par les entreprises, les biais les plus courants sont au nombre de quatre. Il conviendrait de les prendre en compte avant de se lancer dans des usages déviants.
Biais de sélection des données
Des données utilisées pour entraîner le système sont biaisées ou incomplètes, et peuvent produire des résultats inéquitables ou inexacts.
Par exemple, si un système d’IA est entraîné uniquement sur des données provenant d’une population spécifique, il peut généraliser ces résultats à l’ensemble de la population et de fait avoir une approche discriminante. L’exemple que je donnais de l’approche de Yoti par rapport aux migrants mineurs en est un exemple.
Biais d’algorithme
Certains algorithmes peuvent produire des résultats biaisés en raison de la manière dont ils sont conçus. Par exemple, c’est un fait que le marché des outils de recrutement algorithmiques a récemment pris de l’ampleur. Se concentrant sur l’étape de présélection, un algorithme de recrutement va accorder plus d’importance à l’expérience antérieure et peut favoriser les candidats plus âgés, même s’ils ne sont pas nécessairement les plus qualifiés.
Plus problématique encore, une étude menée par la Northeastern University et l’USC en 2021, a constaté que les annonces concernant les messages de recrutement de caissiers de supermarché sur Facebook étaient montrés à un public composé à 85 % de femmes, tandis que les emplois dans les sociétés de taxi l’étaient à environ 75 % aux profils afro-américains. Vous avez dit bizarre ? Comme c’est étrange !
Quant à la transparence des algorithmes, c’est le fog londonien par temps de brouillard ! Quels que soient leurs usages, les algorithmes utilisés dans l’IA qui, pour partie, s’appuient sur le machine learning (un sous-ensemble de l’IA qui aide les ordinateurs à apprendre et à agir comme des humains tout en améliorant leur apprentissage autonome au fil du temps) peuvent être biaisés en raison des données qu’ils utilisent pour l’apprentissage. Dans cet état de fait, l’IA peut reproduire ces biais, renforçant son apprentissage fallacieux avec les conséquences que l’on peut imaginer.
L’exemple de l’expérimentation menée sur le pont de Brooklyn en 2019 en est une illustration, comme le rapportait le Wall Street Journal… La ville de New York, qui souhaitait identifier les conducteurs traversant le pont Robert F. Kennedy grâce à la reconnaissance faciale, n’avait alors pas réussi à identifier un seul visage « dans des paramètres acceptables ».
Certes, de l’eau a coulé sous les ponts, mais les erreurs se sont pourtant multipliées et les craintes demeurent à tel point que la startup italienne Ca-pable a lancé la collection de vêtements Manifesto, pouvant tromper les systèmes de reconnaissance faciale. Selon Rachele Didero, cofondatrice et directrice générale, l’objectif de la start-up est de dénoncer l’absence de consentement dans l’utilisation de cette technologie.
Biais d’étiquetageÂ
Le data labeling ou étiquetage de données est une étape indispensable pour le machine learning et l’intelligence artificielle. S’il est mal fait, il peut introduire des biais.
Par exemple, des étiquettes inappropriées ou stéréotypées utilisées pour décrire les images d’un ensemble de données peuvent générer des résultats biaisés.
Biais cognitifs
Les biais cognitifs font référence aux erreurs de raisonnement ou aux distorsions cognitives qui peuvent affecter les prises de décisions.
Ainsi, dans un rapport de l’American Civil Liberty’s Union (ACLU) datant de juillet 2018, la technologie de reconnaissance faciale d’Amazon, « Rekognition », a associé 28 membres du Congrès à des photos de délinquants arrêtés. Comme le souligne Quantmetry : « Ces membres étaient des Républicains et des Démocrates, des hommes et des femmes, des législateurs de tous âges habitant dans tout le pays. Les fausses correspondances concernaient de manière disproportionnée des personnes de couleur, alors que ces dernières ne représentent que 20 % des membres du Congrès. »
Pour les chercheurs comme pour les utilisateurs, États ou entreprises, outre la transparence, les enjeux prioritaires sont donc à ce jour de développer des méthodes afin de réduire les biais dans les systèmes d’IA : collecte de données diversifiées, révision régulière des algorithmes, audit des résultats et formation des utilisateurs sur les biais potentiels des systèmes d’IA avant leur mise en Å“uvre ; et de mon point de vue, ne pas avancer vers une IA autonome.
Pour réduire les biais dans les systèmes d’IA, il faut au préalable s’assurer de :
- collecter des données représentatives,
- évaluer constamment le modèle,
- utiliser des modèles transparents,
- former l’IA qui apprend ce qu’on lui a dit d’apprendre,
- avoir une équipe diversifiée.
Il ne faut jamais oublier qu’une IA est conçue par des êtres humains, avec leurs expériences, leurs préjugés, leur vision du monde…
C’est un chantier colossal ! Pour appuyer cette approche éthique, il existe des algorithmes de détection de biais pouvant être utilisés pour identifier les biais potentiels dans les modèles d’IA. Ces algorithmes peuvent aider les ingénieurs à corriger les biais dans le modèle.
Comme le souligne Grégoire Martinon, responsable scientifique de l’expertise IA de confiance chez Quantmetry, un cabinet de consultance spécialisé en data science, « l’IA de confiance repose sur trois piliers qui sont l’intelligibilité des algorithmes, leur robustesse et l’équité ».
Vers le pire de l’IA !Â
La surveillance de masse par les États ne cesse de progresser via la reconnaissance faciale qui présente toujours de grandes faiblesses. Mais également la prédiction de comportements tout aussi discutable, et le contrôle de l’accès à certaines informations des citoyens pouvant inclure la censure de certains contenus en ligne ou la surveillance des activités en ligne pour détecter ceux qui cherchent à accéder à des informations sensibles.
Comme je l’évoquais en introduction, de mon point de vue, le plus dramatique et la porte ouverte à tous les excès, ce sont les « robots tueurs ».
En effet l’IA peut être utilisée pour développer des armes autonomes. Un robot tueur est un robot conçu pour mener des opérations militaires ou des missions de sécurité en utilisant la force létale sans intervention humaine directe. Ces robots sont également connus sous le nom de robots autonomes armés (RAA). Contrairement aux drones militaires contrôlés à distance par un opérateur humain, les robots tueurs sont programmés pour prendre des décisions de manière autonome et peuvent être équipés d’armes létales telles que des mitrailleuses ou des missiles.
Le développement et l’utilisation de robots tueurs sont un sujet de préoccupation pour de nombreux groupes de défense des droits de l’Homme, qui craignent que leur utilisation ne soit pas conforme au droit international et pose des problèmes éthiques majeurs.
L’ONU avait alerté en 2018. Pourtant, en 2021, il semblerait que « des départements de Défense persistent à développer ces matériels futuristes et semblent vouloir les envoyer sur le terrain rapidement, Russie et États-Unis en tête ». En 2017, Vladimir Poutine avait déclaré à ce sujet : « Celui qui deviendra leader dans le domaine de l’intelligence artificielle dominera le monde. »
Bien sûr, de nombreuses entreprises robotiques, comme la réputée Boston Consulting Group, ont déclaré la main sur le cœur qu’elles ne s’engageraient jamais sur ce terrain… naturellement, tous les États nient leur existence et des recherches allant dans ce sens.
Faut-il pour autant les croire sur parole ? Par ailleurs, sans une interdiction formelle et internationale d’avancer de la même dimension que l’interdiction du clonage humain par le conseil de l’Europe, cela ouvre la porte à de nombreuses autres dérives potentielles, où l’humain perdrait la main.
La prédiction d’Hawking évoquant une intelligence artificielle « absolue » se ferait alors réalité :
« La création d’une intelligence artificielle serait le plus grand événement de l’histoire de l’humanité. Mais il pourrait aussi être l’ultime. »
Quant à savoir si par-delà les interdits, par-delà les appels à l’éthique, par-delà les alertes, il n’y aura pas de brebis galeuses dans le milieu de la recherche et parmi les États… L’histoire est là pour nous rappeler que rien n’est moins sûr.
« L’éthique, on cherche toujours à s’en débarrasser. » Anonyme
L’intelligence artificielle reste un graal inaccessible pour des décennies au moins. Toutes ces élucubrations qui réagissent à la publicité pour un ChatGPT qui n’a pas plus à voir que l’Encyclopedia Britannica ou Wikipedia avec de l’intelligence deviennent irritantes. Je suis né dans un monde où la reconnaissance faciale était partout, « Maman a dit de me donner un camembert à point comme elle les aime et de le mettre sur son compte », c’était génial. Si ça revenait un peu, ce serait un bien. Par exemple, si le supermarché se disait à mon arrivée « Lui c’est MichelO, il n’aime pas du tout qu’on lui fasse de la pub pour quoi que ce soit, il est foutu d’aller chez la concurrence si on le dérange »…
Les excès ne sont pas spécialement favorisés par les données et la technologie pour les exploiter. Le problème vient de l’absence de facilité juridique pour répliquer en cas de mauvaise utilisation. Juridique, uniquement, la technique c’est super, et si ça m’évite de montrer ma carte d’identité pour prouver à 70 ans que je suis majeur quand j’achète une bonne bouteille, tant mieux et pourquoi voulez-vous nous compliquer la vie ?
Bonjour Michel,
« L’intelligence artificielle reste un graal inaccessible pour des décennies au moins ».
-Le sera-t-elle vraiment un jour ?
Notre univers dans son entier ne serait que de l’information reposant sur des bases mathématiques, et d’aucuns prétendent que la véritable intelligence créatrice,le libre arbitre,l’état de conscience,bref tout ce qui caractérise notre raison d’être,ne faillirait pas à cette règle intangible.
Il ne s’agit pour l’instant que de simples hypothèses, sans fondement, et nous sommes bien loin de pouvoir dupliquer un super ordinateur comparable à un cerveau humain tant ce dernier reste toujours une terra incognita en dépit des dernières découvertes.
L’IA reste cependant incontournable et particulièrement efficace car l’origine de ses performances reste mathématiquement concrète, contrairement à celles du cerveau humain véritable abstraction dépassant toujours notre entendement.
Personnellement, je ne crois pas que l’intelligence artificielle émerge jamais. L’algorithmique et l’exploitation des bases de données, domaines que je connais plutôt bien, n’ont rien à voir avec l’intelligence. L’intelligence procède par intuitions/analogies, formulation d’hypothèses, exploration ou invalidation des pistes ainsi ouvertes, et interaction avec des sentiments, joie, espoir, exaltation, déception, etc. Ce sont des problèmes de complexité combinatoire et des motivations qu’on ne sait pas modéliser, et qui disparaîtraient sans doute si on le savait.
Un exemple d’intelligence, c’est Alexander Flemming comprenant au vu de sa boite de Petri bonne à jeter aux ordures que c’est en fait le hasard qui lui apporte le prix Nobel. Ou c’est Don Mc Lean lisant une biographie de Van Gogh, et s’asseyant avec une reproduction de la nuit étoilée pour écrire sur un sac en papier la chanson « Vincent » où il explique qu’il n’était pas fou.
Des mécanismes de pensée que les ordinateurs ne sont pas près de répliquer, et tels que personne n’aura jamais le premier sou ni la première idée pour développer des machines qui le feraient. Quelque chose de parfaitement orthogonal au Le tableau « La Nuit étoilée » de Vincent van Gogh a inspiré de nombreuses interprétations et réflexions au fil des ans. Pour certains, cette peinture est une représentation de l’imagination débordante de van Gogh, tandis que pour d’autres, elle est une expression de ses luttes émotionnelles et mentales. de ChatGPT.
@MichelO
Je partage pleinement votre brillante démonstration des limites de l’IA trop souvent « oubliées »par les médias, tant les impératifs de promotion des nouvelles techonologies doivent être avant tout mis en exergue.
Le fantasme humain prométhéen de pouvoir tout maîtriser et de tuer la mort elle-même se heurtera pour longtemps encore aux forces déterministes qui tendent à nous gouverner.
oui…ce n’est pas d’etre surveillé le problème… à la rigueur chez soi..mais dans l’espace di public on est surveillable et surveillé
la loi!!!!
et chatgpt est un avatar de l’argument d’autorité  » informatique; » . pour ceux qui y croient…
ce n’est pas rien de rappeler les propos de Feynman sur la méthode scientifique autrement dit la méthode pour falsifier… verifier la véracité…ne pas se fier à l’intelligence ..
on arrive à peine à définir l’intelligenc ehumaine..et on articule la définition d’un intelligence artificielle sur l’humanité!!!
des etre unicellulaire savent résoudre des problèmes!!!
Bonjour Michel,
« L’intelligence artificielle reste un graal inaccessible pour des décennies au moins ».
-Le sera-t-elle vraiment un jour ?
Notre univers dans son entier ne serait que de l’information reposant sur des bases mathématiques, et d’aucuns prétendent que la véritable intelligence créatrice,le libre arbitre,l’état de conscience,bref tout ce qui caractérise notre raison d’être,ne faillirait pas à cette règle intangible.
Il ne s’agit pour l’instant que de simples hypothèses, sans fondement, et nous sommes bien loin de pouvoir dupliquer un super ordinateur comparable à un cerveau humain tant ce dernier reste toujours une terra incognita en dépit des dernières découvertes.
L’IA reste cependant incontournable et particulièrement efficace car l’origine de ses performances reste mathématiquement concrète, contrairement à celles du cerveau humain véritable abstraction dépassant toujours notre entendement.
Merci pour cet excellent article inédit qui ose aborder objectivement les éventuelles conséquences négatives de l’IA……. dont les limites évidentes sont le plus souvent éludées !
S’il semble réaliste que « science sans conscience n’est que ruine de l’âme »,une IA forte agissant indépendamment de la volonté humaine relèvera sans doute pour très longtemps d’un impossible rêve.
Il semblerait ainsi déraisonnable d’imaginer l’avènement d’une IA à contrario de toute considération éthique, permettant cependant à l’humanité sa route inéluctable vers……. le progrès.
Le pire est que, si tout cela est déjà porté vers le grand public, est que l’IA est bien plus avancée dans d’obscurs centres d’expérimentation. Comme pour la bombe atomique, qui risque de pousser le bouton en premier ? Alors optimiste ou pessimisme pour l’avenir ? pour l’instant gardons espoir mais il y a urgence à traiter le sujet de l’IA par une instance mondiale. Donc urgence et espoir.
Entre Docteur Folamour et ChatGPT, lequel est le plus susceptible d’appuyer sur le bouton ? Je ne sais pas, mais je sais avec certitude que votre instance mondiale est, elle, un risque inacceptable. Lisez la nouvelle « Pauvre Surhomme » de Kurt Vonnegut Jr., et dites nous en quoi Diana Moon Glampers devrait y avoir barre sur le postulant empereur Harrison Bergeron.
La question n’est pas de savoir si les algorithmes et les données représentent un danger, elle est de savoir si le danger n’est pas encore plus grand en leur absence. Une anecdote personnelle :
Il y a 3 jours, dans le bus, à un arrêt montent 3 personnes, deux gars et une fille. Le couple s’assied à l’avant, l’autre gars met son masque et va à l’arrière. Trois arrêts plus loin, deux policiers en gilet pare-balle abordent le bus, en position jambes écartées et font descendre le couple pour vérification d’identité en ignorant les protestations du type « Si si, on nous as signalé que tu es monté dans ce bus ». A l’arrêt suivant, le troisième descend précipitamment, jette son masque et part en courant dans une rue transversale. La reconnaissance faciale n’aurait pas eu que des défauts…
Le mythe de Frankenstein encore et toujours . Le récit de la Genèse conte que depuis toujours l’homme a voulu devenir semblable à dieu. Nous essayons donc aujourd’hui de créer des machines intelligentes . Comme conté dans la bible passerons nous comme dieu par des phases de dégout nous menant à détruire ce que nous aurons crées (le déluge) , leur enverrons nous un Moïse avec des tables de la loi (façon Asimov) puis un Jésus numérique pour les sauver ? En ferons nous des esclaves ou bien leur donnerons nous entière liberté , cesseront ils un jour de croire en notre existence ?
Oui, on essaie toujours de pallier nos manques, divinité, intelligence, etc. 🙂
@MichelO
« Le silence éternel de ces espaces infinis m’effraie »
Cette inquiétude formulée il y a près de quatre siècles par Blaise PASCAL ,mathématicien de premier ordre ,est toujours d’actualité en dépit des formidables progrès de l’IA dont les applications vont permettre par exemple de repousser la connaissance de notre univers aux « dimensions » vertigineuses, montrées par les premières images fascinantes du télecope spatial James-Webb, véritable bijou de technologie.
Retenons le discours optimiste du regretté physicien cité dans l’article Stephen HAWKING, estimant que nous vivons une époque propice et « magnifique » pour mener à bien des recherches en physique théorique.
N’oublions jamais son message d’espoir invitant à « regarder vers les étoiles et non en bas, vers nos pieds », et à être curieux et à ne surtout pas abandonner.
Tout n’est pas perdu !!!!
.