Devant le Congrès américain, Sam Altman a semblé, comme j’ai pu l’évoquer dans un précédent article, vouloir se faire passer pour un lanceur d’alerte en appelant concomitamment de ses vœux une régulation par le politique.
Notre bien étrange lanceur d’alerte menaçait de retirer l’ensemble de son activité de l’Union européenne si le texte sur la régulation de l’IA sur laquelle cette dernière travaillait : The Artificial Intelligence Act (AI Act), était adopté en l’état.
Paradoxe ? Pas le moins du mondeÂ
Lors de son intervention devant le Congrès américain, en fin stratège, Sam Altman poursuivait au moins deux objectifs :
- Se mettre à l’abri de toute poursuite en cas de dérives des outils développés par son entreprise, et se poser en force de proposition.
- Être intégré dans une réflexion sur une régulation à venir qui ne perturberait pas les objectifs de sa structure.
Un troisième point pourrait être postulé : en intégrant – peut-être demain – les instances américaines qui réfléchiront à une régulation, je ne pense pas que monsieur Altman sera très soucieux de l’avenir de sa concurrence potentielle. Il serait alors en bonne place pour ériger des barrières limitant ou rendant impossibles l’entrée de nouvelles firmes sur ce marché à très haut potentiel.
Pour rappel, la société d’analyse GlobalData estime que « le marché mondial de l’intelligence artificielle (IA) devrait croître à un taux de croissance annuel composé (TCAC) de 21,4 %, passant de 81,3 milliards de dollars en 2022 à 383,3 milliards de dollars en 2030. »
Ceci ayant été rappelé, que notre lanceur d’alerte en appelle à la régulation outre-Atlantique, et s’oppose vigoureusement à la régulation qui se profile en Europe, pourrait apparaître comme un paradoxe ? Pas le moins du monde, et pour cause.
Législation sur l’Intelligence Artificielle
L’AI Act, pour Artificial Intelligence Act est un projet de régulation de l’IA qui est actuellement examiné par plusieurs comités au Parlement européen.
Il est accessible en ligne ici.
Selon Thierry Breton, Commissaire européen au marché intérieur, ce texte « devrait être voté en séance plénière en avril au Parlement ». Une fois voté et mis en place, l’AI Act pourrait servir de référent pour les autres pays, et ce au même titre que le Règlement Général sur la Protection des Données.
Les IA génératives sont-elles à « haut risque » ?
Sam Altman a Å“uvré aux États-Unis pour être un acteur majeur des modalités d’une régulation… Sachant qu’avant son coup d’éclat ciblant l’Union européenne, il était totalement hors-jeu pour ce qui concerne les contours de l’Artificial Intelligence Act.
C’est à mon sens ce qui explique son attitude : pouvoir infléchir le texte.
Sam Stalman est vent debout contre le General Purpose AI System (GPAIS).
Une régulation européenne, oui, mais une régulation qui ne freine pas son développement et les intérêts de sa structure.
En effet, les entreprises comme la sienne qui conçoivent des outils « IA générative » seraient- à ce stade d’avancement du projet de régulation, contraintes de révéler la teneur de tout matériel protégé par des droits d’auteur… Pire encore, pour son activité, le texte en l’état souhaiterait hiérarchiser les risques liés à une IA, sur une échelle allant de « bas » à « inacceptable », en passant par une étape intermédiaire, « le haut risque ».
L’objet serait alors de mettre en place une régulation adaptée. Toutes les infrastructures les plus critiques – éducation, forces armées (cf. robots tueurs) que j’ai pu évoquer, devraient ainsi être soumises à un niveau de régulation des plus durs…
Ce qui gêne profondément monsieur Altman, c’est la tournure que prend le texte, et qui touche directement son activité… Dans le texte, il est notamment fait mention d’une nouvelle catégorie d’IA : le General Purpose AI System (GPAIS). À ce stade, les parlementaires hésitent encore à classifier cette activité à « haut risque »… Cette catégorie permettrait de pouvoir caractériser les intelligences artificielles pouvant avoir plusieurs applications, à l’instar des IA génératives comme GPT-4, Midjourney, Einstein GPT, ou Ernie.
Les choses ne sont pas encore actées : « Les parlementaires réfléchissent à la possibilité ou non de considérer automatiquement tout GPAIS à « haut risque » ! »
La stratégie de Sam Altman sera-t-elle efficace ? Devant la manne financière, devant sa menace de retrait, les parlementaires reculeront-ils ? Sam Altman sera-t-il intégré à la réflexion en cours ? L’histoire nous le dira. À suivre.
« La connaissance du pays où l’on doit mener sa guerre sert de base à toute stratégie. » Frédéric II de Prusse
Laisser un commentaire
Créer un compte