L’AI Act a été adopté le 14 juin 2023 par le Parlement européen : « d’ici la fin de l’année, les négociateurs espèrent tomber sur un accord total ».
Il est à noter qu’elle est la première loi globale sur l’IA au monde. Comme je l’évoquais dans un précédent article, il faudra alors voir si des amendements à ce texte répondront aux menaces de Sam Altman de retirer l’ensemble de son activité si le texte reste en état. Pour ce qui est de la régulation européenne, la volonté exprimée du Artificial Intelligence Act est louable, son intention est de protéger la population de l’UE des risques identifiés de l’intelligence artificielle. Rien à redire. Le texte reprend à ce titre les réglementations déjà appliquées en matière de sécurité des produits, qui fixe un cadre juridique uniforme à la commercialisation et à ses usages.
Par-delà l’Europe, les régulations et les lois sont appelées à se multiplier de façon disparate : à chacun sa régulation de l’IA… ce qui, nous le verrons, pose un grave problème au regard des enjeux et sont annonciatrices de la catastrophe redoutable et redoutée.
Ainsi, le 11 avril 2023, la Chine (pays expert en capitalisme de surveillance) proposait un projet de réglementation de l’IA (Measures for Generative Artificial Intelligence Services). Aux États-Unis, pour donner suite aux nombreux appels formulés par les géants de la Tech pour réguler l’IA (cf. intervention de Sam Altman devant le Congrès américain) la Maison Blanche a convié, le 2 mai 2023, les dirigeants de Google, Microsoft, OpenAI et Anthropic à une discussion sur les enjeux de la régulation de cette technologie.
Les grands principes de la première loi au monde sur l’IA
Pour revenir à l’IA Act, la version européenne qui nous concerne, l’un des éléments les plus importants est certainement la classification des IA et les obligations afférentes pour les acteurs (fournisseurs, distributeurs, utilisateurs..) selon leur catégorie d’appartenance. Le texte propose ainsi une classification des systèmes d’IA et de leurs risques.
Les systèmes peuvent ainsi être jugés :
- À risque inadmissible.
- À très haut risque.
- À risque modéré.
- À moindre risque.
La philosophie du texte n’est pas d’émettre un jugement de valeur sur les technologies développées. Qu’elles soient bonnes ou mauvaises n’est pas le sujet. Le texte est essentiellement centré sur les usages. L’histoire est d’ailleurs là pour nous rappeler que le risque majeur de nombreuses inventions humaines aura été, non pas les inventions elles-mêmes, mais leur dévoiement à des fins nuisibles : humain trop humain !
La classification proposée fera l’objet d’une liste qui sera régulièrement remise à jour au regard des évolutions de l’IA. Comme le disait Edmonde Charles-Roux, le danger est que « l’homme ne domine plus ses inventions ». Avec la superintelligence en approche, nous nous exposons à un danger majeur, celui d’inventer une intelligence supérieure à la nôtre qui serait potentiellement capable de prendre le contrôle. Lucie Lequier, journaliste chez Numerama, a fait un état des lieux exhaustif des points les plus prégnants…
À noter que parmi les IA interdites, nous ne pouvons que nous réjouir d’une timide reconquête de certaines libertés publiques et de protection de la vie privée, qui, sans cadre législatif, ont été parfois maltraitées.
Parmi les systèmes interdits relèvés par la journaliste :
Les systèmes établissant une note sociale : par exemple, ceux qui classifient les personnes selon leur fiabilité et peuvent conduire à « un traitement préjudiciable ou défavorable ».
Les systèmes d’identification biométrique à distance et en temps réel : « dans des espaces accessibles au public à des fins répressives », y compris par les autorités.
Les systèmes qui visent à manipuler par des techniques subliminales agissant sur l’inconscient.
Les systèmes ciblant les personnes vulnérables comme les enfants ou les personnes handicapées.
La superintelligence et ses défis…
Le phénomène ChatGPT a contribué à faire connaître l’IA et l’un de ses aspects au grand public. La régulation de l’IA est depuis plusieurs mois au cœur des préoccupations de notre monde, de ses dirigeants, de ses acteurs.
Cet engouement sur cette thématique semble faire écho aux préoccupations des dirigeants d’open AI, qui, rejoignant la pensée de Hawking, appellent à une réglementation pour empêcher l’IA de détruire l’humanité… Rien de moins. En lanceur d’alerte pour le moins atypique, Sam Altman multiplie de par le monde ses interventions en ce sens – notons pour rappel qu’il était toutefois opposé à l’IA act en l’état – lors d’une interview en direct avec le Times of India.
Dans ce qui ressemble peu ou prou à la tournée mondiale d’une rock star évangéliste, le dirigeant d’OpenAI avait multiplié les assertions les plus alarmistes, allant jusqu’à déclarer aux journalistes qu’il était tellement stressé par la sortie de ChatGPT qu’il en avait perdu le sommeil :
« Ce pour quoi je perds le plus de sommeil, c’est que nous avons déjà fait quelque chose de vraiment mauvais… »
Le risque d’une IA hors contrôle anéantissant l’humanité estimé à 10 % !
Selon une étude réalisée en 2022, environ la moitié des chercheurs en IA estiment à 10 % ou plus le risque qu’un échec à contrôler l’intelligence artificielle cause l’extinction humaine. 10 % ou plus, autant dire que nous sommes en danger.
De quelle façon une IA autonome, et émancipée de tout contrôle humain, agirait-elle sur notre humanité ? Il n’est pas dystopique d’imaginer l’issue : devenue gouvernement mondial autonome pour réguler nos comportements, je suppose que cette superintelligence s’attellerait à résoudre les difficultés que notre humanité rencontre et n’arrive pas à résoudre…
Réfléchisssons.
Quelle serait sa position pour les 736 millions de personnes qui vivent en dessous du seuil international de pauvreté monétaire sans que notre intelligence collective ne soit capable d’endiguer cette injustice ?
Comment une superintelligence prenant le contrôle agirait-elle vis-à-vis de personnes handicapées mentales ou physiques, n’entrant pas dans une norme de conformité de nos normes productivistes ? Des gens qui d’après certains « ne sont rien ».
Sans vouloir être plus alarmiste que Stalman, si elle devait voir le jour, une telle superintelligence procéderait à mon sens à un eugénisme froid et rationnel. Elle signerait l’avènement d’un transhumanisme eugéniste.
Objets inanimés, avez-vous donc une âme qui s’attache à notre âme et la force d’aimer ? questionnait Alphonse de Lamartine. Je crains que, pour cette potentielle superintelligence, la réponse sera non.
Vers une fin de l’humain par étape ?
Je ne pense pas à l’extinction humaine au sens strict. Dans un premier temps que je ne verrai pas, je pense plutôt à l’avènement progressif d’hommes augmentés, éloignés de l’être humain.
Cette étape pourrait précéder le transhumanisme eugéniste qui est potentiellement crédible et à nos portes (cf. superintelligence). Mon credo : ce qui est concevable par l’Homme est réalisable par l’Homme. Si être un homme c’est s’empêcher, je doute fort que l’homme s’empêchera de quoi que ce soit si le marché est demandeur et porteur. Les réglementations ne pourront malheureusement rien. Un jour prochain, à l’instar de la chirurgie esthétique qui est pour ceux qui y ont recours, le fruit d’une pression sociale afin de rester « compétitifs », il y aura la possibilité d’augmenter ses capacités intellectuelles. Et il y aura des structures qui auront la capacité de répondre à cette folle demande.
Là, commencera alors le début de la fin de l’humain en tant que tel, avec ses forces, ses faiblesses, son unicité, ses doutes, ses joies immenses et ses peines insondables. Ce pourrait être la première étape qui nierait nos différences, pierre angulaire de notre humanité…
Si je délire ? Non !
À l’heure où j’écris ces lignes, la start-up Neuralink a obtenu l’aval des autorités sanitaires américaines pour tester ses implants cérébraux sur des humains. L’entreprise conçoit aujourd’hui des appareils connectés à implanter dans le cerveau pour communiquer avec les ordinateurs directement par la pensée. « Ils doivent d’abord servir à aider des personnes paralysées ou souffrant de maladies neurologiques ».
Selon Elon Musk, une première tentative devrait avoir lieu cette année pour « quelqu’un atteint d’une forme de tétraplégie ». On ne peut naturellement que se réjouir d’une telle finalité. Toutefois, sans garde-fou incontournable mondialement, qu’en sera-t-il demain ?
Par-delà pallier les déficiences liées à une maladie, et sans vouloir jouer les cassandre, un autre marché s’appuyant sur les avancées des neurosciences et de l’IA pourrait s’ouvrir s’il n’est pas totalement prohibé… Celui de l’homme augmenté.
Si ce cap était un jour franchi, il faudrait alors que les hommes se déterminent, choisissent entre leur intégrité d’humain et leur possibilité d’insertion sociale. Notons que le cerveau humain augmenté est un leurre au cœur de la pensée transhumaniste… Dans ce sombre scénario apparaîtraient alors vraisemblablement des survivalistes. Refusant de modifier ce qu’ils sont et de sacrifier leur humanité sur l’autel de la performance, ils seraient nécessairement marginalisés.
Dans ce sombre scénario, naîtrait une société opposant des hommes contre des hommes « machines », un monde qui ferait d’Asimov un véritable has been.
Les réglementations nécessaires seront-elles suffisantes ?
Que penser des réglementations et des lois ?
De nombreuses lois internationales ont le mérite d’exister. Je nous pose alors la question : certaines armes ne sont-elles pas prohibées en temps de guerre ?
Je vous les rappelle : armes nucléaires (jusque-là tout va bien) ; armes chimiques (probablement utilisées en Syrie) ; armes biologiques (attaque chimique probable perpétrée à Khan Cheikhoun, en Syrie) ; mines antipersonnel (usage probable par l’armée ukrainienne en 2023) ; bombes à sous-munitions (l’Observatoire des armes à sous-munition, le Cluster Munition Coalition dénonce leur utilisation dans le conflit Russie-Ukraine en 2023) ; armes à laser aveuglantes (Pékin ne l’utilisera pas… promis)
Alors, certes, il est des violations du droit international ici et là régulièrement, et les pays s’indignent… Tout le monde s’indigne : « les plus jamais cela », les « c’est inacceptable » envahissent les médias et les réseaux sociaux… un vrai feu d’artifice d’indignation… C’est très beau pour des victimes sans visage et sans nom. Les faits sont obstinés, par-delà le droit international, par-delà les atermoiements, des crimes innommables ont été commis, en attendant les prochains. Pour être parfaitement honnête, certains pays se sont refusés à signer les textes interdisant le recours à de tels armes.
Pour se garder des risques de l’IA superintelligente qui est en approche, qui serait en mesure de faire dépendre notre humanité de sa volonté propre, Altman, Brockman et Sutskever plaident « pour une gestion proactive des risques et une réglementation ciselée » et avancent trois principes fondamentaux qui pourraient être des garde-fous :
- Une coordination parmi les principaux efforts de développement.
- La création d’une autorité internationale similaire à l’Agence internationale de l’énergie atomique pour superviser les projets liés à la superintelligence.
- La nécessité d’acquérir la capacité technique de rendre sûre la superintelligence.
Pour ce qui est du troisième point, les choses vont s’annoncer inatteignables pour quiconque de réaliste. Pour se prémunir d’une superintelligence qui prendrait le contrôle, il n’existe pas d’autre solution, et en tout premier lieu, celle d’une coopération internationale totalement transparente sur le sujet.
Si l’on en juge de la situation actuelle harmonieuse (sic) de notre monde paisible, si l’on se réfère à la déclaration de Vladimir Poutine en 2017 : « le leader en intelligence artificielle dominera le monde », à défaut de ne pas dormir comme monsieur Sam Altman… nous pouvons encore rêver.
Oui, la superintelligence signera probablement la fin de notre humanité, à moins que les humains que nous sommes n’acceptent leur condition d’humains et refusent en conscience cette issue tragique ! Ce qui signifie d’accepter notre condition humaine et arrêter ces délires de multimilliardaires qui veulent dessiner un monde à leur image en méprisant les humains « normaux ».
Mes mots n’arrêteront strictement rien car on ne lutte pas avec des mots contre un marché prévisionnel de 800 milliards d’euros et des hommes qui s’en moquent et regardent ailleurs.
« L’intelligence artificielle pourrait mettre fin à l’humanité ». Hawking
C’est curieux de se préoccuper de problèmes hypothétiques à horizon de dizaines d’années, comme les questions climatiques. Pour moi le problème de l’humanité ce n’est pas une super intelligence de science fiction mais la bêtise généralisée qui gouverne le monde occidental, et son incapacité à résoudre des problèmes immédiats: crise économique, énergétique, sociétale, et même guerres.
+1
Comme vous, je cherche depuis quelque temps un journal qui traite du libéralisme.
Effectivement, le véritable danger du monde actuel n’est pas l’intelligence artificielle mais bien la connerie naturelle qui sévit de plus en plus à tous les étages de la société et pour laquelle il ne semble pas exister de vaccin efficace!
L’intelligence hors de contrôle… Dans notre monde de bêtise hors de contrôle, c’est un rêve parfaitement inaccessible.
Beaucoup de petits hommes qui nous dirigent portent des talonnettes mais ont la prétention de réguler le climat (où est le Climate Act ?). Qui se contentent de faire payer le PV en cash pour consommation de drogue illicite.
L’emploi du terme « intelligence » est une erreur monumentale et qui plus est source d’erreurs. Si on se contentait de parler de « renseignement », ce que le terme anglo-saxon signifie en fait, il est fort à parier que les craintes concernant l’IA générative seraient nettement moindres car elles sont injustifiées. C’est l’humain qui invente, pas la machine qui se contente de faire ce qui a été intégré dans son système. Au lieu de crier haro sur l’IA, il me semblerait plus judicieux pour les gens en général de se méfier de ceux que l’on nomme influenceurs et qui me paraissent bien plus dangereux que l’IA.
Il serait peut être temps que ce journal libéral revienne aux fondamentaux et redonne la parole à des auteurs libéraux. Qu’est-ce que c’est que ce torchon ?
Cette trouille du transhumanisme me gonfle. Un type qui porte des lunettes est déjà un transhumain : la technologie lui a permis d’augmenter ses capacités naturelles. Plus encore, quelqu’un qui porte un pace-maker, élément qui lui est vital. Une femme siliconée augmente ses capacités… de séduction. Etc.
Demain, si un implant cervical rend la vue aux aveugles, fait marcher les paralytiques, ce qu’on loue quand c’est Jésus, pourquoi le craindre quand c’est un scientifique ?
si on me montre une super intelligence.. je dis pourquoi appelez vous ça superintelligence?
et si on me dit tu n’es pas assez intelligent tu ne peux pas comprendre, je passe..
si on me montre une « machine qui fait l le boulot pour lequel elle a eté conçues..et que je peux le constater..ok.
en gros on a peur d’unemachine qui a un dessein personnel..
un but qu’on ne connait pas..
les gens intelligents mentent..abusent des crédules..
A la lecture de ce texte, je ferais au moins 4 remarques:
– ce que nous appelons IA n’est probablement pas de l’intelligence. Il faudrait d’abord définir ce qu’est l’intelligence, ou du moins décrire ce qu’elle permet, comment on s’en sert, comment elle fonctionne, etc. Et il n’est pas certain que l’homme soit capable un jour de la disséquer au point de pouvoir la modéliser. Tous les algorithmes que nous créons ne sont que des outils déterministes, et leurs associations peuvent nous étonner par les résultats qui en découlent, qui peuvent sembler dépasser les capacités humaines. Il n’empêche que le fonctionnement est de la logique pure, sans aucun aléa. Notre intelligence est-elle limitée à ça ? On peut en douter.
– l’homme augmenté : depuis que l’humanité existe, elle n’a cessé d’augmenter l’homme, en commençant par le roue, voire même la maîtrise du feu, en passant par les lunettes, etc. La plupart des inventions de l’homme, pour ne pas dire toutes, ont débouché sur une augmentation de l’acuité de ses sens, et une augmentation de sa force physique. Ce nouveau vocabulaire d’homme augmenté n’est, en fait, que du marketing. Dans tous les domaines, l’homme s’est donné, et se donne, les moyens d’élargir le spectre de ses sens: les fréquences des vibrations des milieux matériels, celles électromagnétiques qui traversent le vide. De même pour ses capacités physiques, il a inventé les outils pour aller plus vite, plus loin, pour porter des charges plus lourdes…
– au sujet des 3 systèmes interdits qui sont décrits, ils n’ont rien à voir avec l’IA: ces systèmes existent ou n’existent pas, mais l’IA n’est qu’un outil pour en améliorer le fonctionnement. La reconnaissance faciale et la détection lointaine existaient avant qu’on ne parle d’IA, et elles auraient pu (si elle ne le fuRENT pas réellement) être gérées par les hommes, sans doute avec moins d’efficacité qu’avec l’IA. Les systèmes pour influencer l’inconscient sont monnaie courantes en marketing, sans IA, les images subliminales ont été, et sont sans doute encore utilisées sans IA.
– enfin, un aspect purement philosophique, qu’est-ce que l’homme, quel est son destin dans l’univers. Est-ce que qu’il n’est pas destiné à évoluer pour devenir, grâce à ce qu’on appelle l’IA et son évolution future, un nouvel être hybride homme-machine. Ici, sur le plan éthique, le seul risque, mais majeur, est de voir naître une partition entre ceux qui maîtriseront, et utiliseront cet outil, et ceux qui n’y auront pas accès. Et la seule issue pour y échapper serait de donner à tous, grâce à l’éducation, la capacité de se servir de cet outil. Toutes les réglementations qu’on pourra inventer seront forcément contournées un jour ou l’autre: « ce qui peut se faire, se fera ».
ouaip ça reste des machines.. de machins qui sont supposés faire des trucs;
Les commentaires sont fermés.