Un article de Fan Yang, Research fellow at Melbourne Law School, & Ausma Bernot, Postdoctoral Research Fellow, Australian Graduate School of Policing and Security.
L’intelligence artificielle (IA) est un terme très large : il peut désigner de nombreuses activités entreprises par des machines informatiques, avec ou sans intervention humaine. Notre familiarité avec les technologies d’IA dépend en grande partie de là où elles interviennent dans nos vies, par exemple dans les outils de reconnaissance faciale, les chatbots, les logiciels de retouche photo ou les voitures autonomes.
Le terme « intelligence artificielle » est aussi évocateur des géants de la tech – Google, Meta, Alibaba, Baidu – et des acteurs émergents – OpenAI et Anthropic, entre autres. Si les gouvernements viennent moins facilement à l’esprit, ce sont eux qui façonnent les règles dans lesquelles les systèmes d’IA fonctionnent.
Depuis 2016, différentes régions et nations férues de nouvelles technologies en Europe, en Asie-Pacifique et en Amérique du Nord, ont mis en place des réglementations ciblant l’intelligence artificielle. D’autres nations sont à la traîne, comme l’Australie [ndlr : où travaillent les autrices de cet article], qui étudie encore la possibilité d’adopter de telles règles.
Il existe actuellement plus de 1600 politiques publiques et stratégies en matière d’IA dans le monde. L’Union européenne, la Chine, les États-Unis et le Royaume-Uni sont devenus des figures de proue du développement et de la gouvernance de l’IA, alors que s’est tenu un sommet international sur la sécurité de l’IA au Royaume-Uni début novembre.
Accélérer la réglementation de l’IA
Les efforts de réglementation de l’IA ont commencé à s’accélérer en avril 2021, lorsque l’UE a proposé un cadre initial de règlement appelé AI Act. Ces règles visent à fixer des obligations pour les fournisseurs et les utilisateurs, en fonction des risques associés aux différentes technologies d’IA.
Alors que la loi européenne sur l’IA était en attente, la Chine a proposé ses propres réglementations en matière d’IA. Dans les médias chinois, les décideurs politiques ont évoqué leur volonté d’être les premiers à agir et d’offrir un leadership mondial en matière de développement et de gouvernance de l’IA.
Si l’UE a adopté une approche globale, la Chine a réglementé des aspects spécifiques de l’IA les uns après les autres. Ces aspects vont des « recommandations algorithmiques » (par exemple des plateformes comme YouTube) à la synthèse d’images ou de voix, ou aux technologies utilisées pour générer des deepfake et à l’IA générative.
La gouvernance chinoise de l’IA sera complétée par d’autres réglementations, encore à venir. Ce processus itératif permet aux régulateurs de renforcer leur savoir-faire bureaucratique et leur capacité réglementaire, et laisse une certaine souplesse pour mettre en œuvre une nouvelle législation face aux risques émergents.
Un avertissement pour les États-Unis ?
Les avancées sur la réglementation chinoise en matière d’IA ont peut-être été un signal d’alarme pour les États-Unis. En avril, un législateur influent, Chuck Shumer, a déclaré que son pays ne devrait pas « permettre à la Chine de prendre la première position en termes d’innovation, ni d’écrire le code de la route » en matière d’IA.
https://twitter.com/SenSchumer/status/1719420925131526187?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1719420925131526187%7Ctwgr%5Eee1d0755b114ac4eae3ae5507ca6aa3e95aa0195%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Ftheconversation.com%2Fqui-gouvernera-lia-la-course-des-nations-pour-reguler-lintelligence-artificielle-217320
Le 30 octobre 2023, la Maison Blanche a publié un décret (executive order) sur l’IA sûre, sécurisée et digne de confiance. Ce décret tente de clarifier des questions très larges d’équité et de droits civiques, en abordant également des applications spécifiques de la technologie.
Parallèlement aux acteurs dominants, les pays dont le secteur des technologies de l’information est en pleine expansion, comme le Japon, Taïwan, le Brésil, l’Italie, le Sri Lanka et l’Inde, ont également cherché à mettre en œuvre des stratégies défensives pour atténuer les risques potentiels liés à l’intégration généralisée de l’IA.
Ces réglementations mondiales en matière d’IA reflètent une course contre l’influence étrangère. Sur le plan géopolitique, les États-Unis sont en concurrence avec la Chine, que ce soit économiquement ou militairement. L’UE met l’accent sur l’établissement de sa propre souveraineté numérique et s’efforce d’être indépendante des États-Unis.
Au niveau national, ces réglementations peuvent être considérées comme favorisant les grandes entreprises technologiques en place face à des concurrents émergents. En effet, il est souvent coûteux de se conformer à la législation, ce qui nécessite des ressources dont les petites entreprises peuvent manquer.
Alphabet, Meta et Tesla ont soutenu les appels en faveur d’une réglementation de l’IA. Dans le même temps, Google, propriété d’Alphabet, a comme Amazon investi des milliards dans Anthropic, le concurrent d’OpenAI ; tandis qu’xAI, propriété d’Elon Musk, le patron de Tesla, vient de lancer son premier produit, un chatbot appelé Grok.
Une vision partagée
La loi européenne sur l’IA, les réglementations chinoises sur l’IA et le décret de la Maison Blanche montrent que les pays concernés partagent des intérêts communs. Ensemble, ils ont préparé le terrain pour la « déclaration de Bletchley », publiée le 1er novembre, dans laquelle 28 pays, dont les États-Unis, le Royaume-Uni, la Chine, l’Australie et plusieurs membres de l’UE [ndlr : dont la France et l’Union européenne elle-même], se sont engagés à coopérer en matière de sécurité de l’IA.
Les pays ou régions considèrent que l’IA contribue à leur développement économique, à leur sécurité nationale, et à leur leadership international. Malgré les risques reconnus, toutes les juridictions s’efforcent de soutenir le développement et l’innovation en matière d’IA.
Selon une estimation, d’ici 2026, les dépenses mondiales consacrées aux systèmes centrés sur l’IA pourraient dépasser les 300 milliards de dollars américains. D’ici 2032, selon un rapport de Bloomberg, le marché de l’IA générative pourrait valoir à lui seul 1,3 billion de dollars américains.
De tels chiffres tendent à dominer la couverture médiatique de l’IA, ainsi que les bénéfices supposés de l’utilisation de l’IA pour les entreprises technologiques, les gouvernements et les sociétés de conseil. Les voix critiques sont souvent mises de côté.
Intérêts divergents
Au-delà des promesses économiques, les pays se tournent également vers les systèmes d’IA pour la défense, la cybersécurité et les applications militaires.
Lors du sommet international sur la sécurité de l’IA au Royaume-Uni, les tensions internationales étaient manifestes. Alors que la Chine a approuvé la déclaration de Bletchley faite le premier jour du sommet, elle a été exclue des événements publics le deuxième jour.
L’un des points de désaccord est le système de crédit social de la Chine, qui fonctionne de manière peu transparente. Le AI Act européen considère que les systèmes de notation sociale de ce type créent un risque inacceptable.
Les États-Unis perçoivent les investissements de la Chine dans l’IA comme une menace pour leurs sécurités nationale et économique, notamment en termes de cyberattaques et de campagnes de désinformation. Ces tensions sont bien sûr susceptibles d’entraver la collaboration mondiale sur des réglementations contraignantes en matière d’IA.
Les limites des règles actuelles
Les réglementations existantes en matière d’IA présentent également des limites importantes. Par exemple, il n’existe pas de définition claire et commune d’une juridiction à l’autre des différents types de technologies d’IA.
Les définitions juridiques actuelles de l’IA ont tendance à être très larges, ce qui soulève des inquiétudes quant à leur applicabilité en pratique, car les réglementations couvrent en conséquence un large éventail de systèmes qui présentent des risques différents, et pourraient mériter des traitements différents.
De même, de nombreuses réglementations ne définissent pas clairement les notions de risque, de sécurité, de transparence, d’équité et de non-discrimination, ce qui pose des problèmes pour garantir précisément une quelconque conformité juridique.
Nous constatons également que les juridictions locales lancent leurs propres réglementations dans le cadre national, afin de répondre à des préoccupations particulières et d’équilibrer réglementation et développement économique de l’IA.
Ainsi, la Californie a introduit deux projets de loi visant à réglementer l’IA dans le domaine de l’emploi. Shanghai a proposé un système de classement, de gestion et de supervision du développement de l’IA au niveau municipal.
Toutefois, une définition étroite des technologies de l’IA, comme l’a fait la Chine, présente le risque que les entreprises trouvent des moyens de contourner les règles.
Aller de l’avant
Des ensembles de « bonnes pratiques » pour la gouvernance de l’IA émergent de juridictions locales et nationales et d’organisations transnationales, sous le contrôle de groupes tels que le conseil consultatif de l’ONU sur l’IA et le National Institute of Standards and Technology des États-Unis. Les formes de gouvernance qui existent au Royaume-Uni, aux États-Unis, en Europe et, dans une moindre mesure, en Chine, sont susceptibles de servir de cadre de travail à une gouvernance globale.
La collaboration mondiale sur la gouvernance de l’IA sera sous-tendue par un consensus éthique et, plus important encore, par des intérêts nationaux et géopolitiques.
—
Laisser un commentaire
Créer un compte