AI Act : en Europe, l’intelligence artificielle sera éthique

Parfois critiquée pour son approche réglementaire peu propice à l’innovation, l’UE est résolue à montrer l’exemple avec son AI Act.

Partager sur:
Sauvegarder cet article
Aimer cet article 2
Source : Public Domain Pictures

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

AI Act : en Europe, l’intelligence artificielle sera éthique

Publié le 1 mars 2024
- A +

Ce vendredi 2 février, les États membres ont unanimement approuvé le AI Act ou Loi sur l’IA, après une procédure longue et mouvementée. En tant que tout premier cadre législatif international et contraignant sur l’IA, le texte fait beaucoup parler de lui.

La commercialisation de l’IA générative a apporté son lot d’inquiétudes, notamment en matière d’atteintes aux droits fondamentaux.

Ainsi, une course à la règlementation de l’IA, dont l’issue pourrait réajuster certains rapports de force, fait rage. Parfois critiquée pour son approche réglementaire peu propice à l’innovation, l’Union européenne est résolue à montrer l’exemple avec son AI Act. Le texte, dont certaines modalités de mise en œuvre restent encore à préciser, peut-il seulement s’imposer en tant que référence ?

 

L’intelligence artificielle, un enjeu économique, stratégique… et règlementaire

L’intelligence artificielle revêt un aspect stratégique de premier ordre. La technologie fait l’objet d’une compétition internationale effrénée dont les enjeux touchent aussi bien aux questions économiques que militaires et sociales, avec, bien sûr, des implications conséquentes en termes de puissance et de souveraineté. Dans un tel contexte, une nation qui passerait à côté de la révolution de l’IA se mettrait en grande difficulté.

Rapidement, la question de la réglementation de l’IA est devenue un sujet de préoccupation majeur pour les États. Et pour cause, les risques liés à l’IA, notamment en matière de vie privée, de pertes d’emplois, de concentration de la puissance de calcul et de captation de la recherche, sont considérables. Des inquiétudes dont les participants à l’édition 2024 du Forum économique mondial de Davos se sont d’ailleurs récemment fait l’écho.

En effet, bien que des régimes existants, comme les règles sur la protection des droits d’auteur, la protection des consommateurs, ou la sécurité des données personnelles concernent l’IA, il n’existe à ce jour pas de cadre juridique spécifique à la technologie en droit international. De plus, beaucoup de doutes subsistent quant à la façon dont les règles pertinentes déjà existantes s’appliqueraient en pratique. Face à l’urgence, plusieurs États se sont donc attelés à clarifier leurs propres réglementations, certains explorant la faisabilité d’un cadre réglementaire spécifiquement dédié à la technologie.

Dans la sphère domestique comme à l’international, les initiatives se succèdent pour dessiner les contours d’un cadre juridique pour l’IA. C’est dans ce contexte que l’Union européenne entend promouvoir sa vision de la règlementation articulée autour de règles contraignantes centrées sur la protection des droits fondamentaux.

 

Un risque de marginalisation potentiel

Le Plan coordonné dans le domaine de l’intelligence artificielle publié en 2018, et mis à jour en 2021, trace les grandes orientations de l’approche de l’Union européenne. Celui-ci vise à faire de l’Union européenne la pionnière des IA « légales », « éthiques » et « robustes » dans le monde, et introduit le concept d’« IA digne de confiance » ou trustworthy AI. Proposé en avril 2021 par la Commission européenne, le fameux AI Act est une étape décisive vers cet objectif.

L’IA Act classe les systèmes d’intelligence artificielle en fonction des risques associés à leur usage. Ainsi, l’étendue des obligations planant sur les fournisseurs de solutions d’IA est proportionnelle au risque d’atteinte aux droits fondamentaux. De par son caractère général, l’approche européenne se distingue de la plupart des approches existantes, qui, jusqu’alors, demeurent sectorielles.

Parmi les grands axes du texte figurent l’interdiction de certains usages comme l’utilisation de l’IA à des fins de manipulation de masse, et les systèmes d’IA permettant un crédit social. Les modèles dits « de fondation », des modèles particulièrement puissants pouvant servir une multitude d’applications, font l’objet d’une attention particulière. En fonction de leur taille, ces modèles pourraient être considérés à « haut risque, » une dénomination se traduisant par des obligations particulières en matière de transparence, de sécurité et de supervision humaine.

Certains États membres, dont la France, se sont montrés particulièrement réticents à l’égard des dispositions portant sur les modèles de fondation, y voyant un frein potentiel au développement de l’IA en Europe. Il faut dire que l’Union européenne fait pâle figure à côté des deux géants que sont les États-Unis et la Chine. Ses deux plus gros investisseurs en IA, la France et l’Allemagne, ne rassemblent qu’un dixième des investissements chinois. Bien qu’un compromis ait été obtenu, il est clair que la phase d’implémentation sera décisive pour juger de la bonne volonté des signataires.

À première vue, le AI Act semble donc tomber comme un cheveu sur la soupe. Il convient néanmoins de ne pas réduire la conversation au poncif selon lequel la règlementation nuirait à l’innovation.

 

L’ambition d’incarner un modèle

Le projet de règlementer l’IA n’est pas une anomalie, en témoigne la flopée d’initiatives en cours. En revanche, l’IA Act se démarque par son ambition.

À l’instar du RGPD, le AI Act procède de la volonté de l’Union européenne de proposer une alternative aux modèles américains et chinois. Ainsi, à l’heure où les cultures technologiques et réglementaires chinoises et américaines sont régulièrement présentées comme des extrêmes, le modèle prôné par l’Union européenne fait figure de troisième voie. Plusieurs organismes de l’industrie créative avaient d’ailleurs appelé les États membres à approuver le texte la veille du vote, alors que la réticence de Paris faisait planer le doute quant à son adoption. Cet appel n’est pas anodin et rejoint les voix de nombreux juristes et organismes indépendants.

Compte tenu des inquiétudes, il est clair que l’idée d’une IA éthique et respectueuse des droits fondamentaux est vendeuse, et serait un moyen de gagner la loyauté des consommateurs. Notons d’ailleurs que huit multinationales du digital se sont récemment engagées à suivre les recommandations de l’UNESCO en matière d’IA éthique.

L’initiative se démarque aussi par sa portée. Juridiquement, le AI Act a vocation à s’appliquer aux 27 États membres sans besoin de transposition en droit interne. Le texte aura des effets extraterritoriaux, c’est-à-dire que certains fournisseurs étrangers pourront quand même être soumis aux dispositions du règlement si leurs solutions ont vocation à être utilisées dans l’Union.

Politiquement, le AI Act est aussi un indicateur d’unité européenne, à l’heure où le projet de Convention pour l’IA du Conseil de l’Europe (qui englobe un plus grand nombre d’États) peine à avancer. Mais peut-on seulement parler de référence ? Le choix de centrer la règlementation de l’IA sur la protection des droits de l’Homme est louable, et distingue l’Union des autres acteurs. Elle en poussera sans doute certains à légiférer dans ce sens. Néanmoins, des ambiguïtés subsistent sur son application. Ainsi, pour que l’AI Act devienne une référence, l’Union européenne et ses membres doivent pleinement assumer la vision pour laquelle ils ont signé. Cela impliquera avant tout de ne pas céder trop de terrains aux industriels lors de son implémentation.

Voir les commentaires (25)

Laisser un commentaire

Créer un compte Tous les commentaires (25)
  • Ethique et morale.
    La morale : c’est un code de la société destiné à permettre la survie de l’individu.
    L’éthique : c’est un code individuel destiné à permettre la survie de la société.
    L’IA européenne ne sera pas éthique mais morale. C’est un peu plus inquiétant.

    • Poutine et compagnie doivent bien rigoler !
      Il est trop tôt pour savoir s’ils ont tort
      Qu’is n’oublient pas que leurs propres données sont biaisées par leurs propres censures

      • Avatar
        jacques lemiere
        1 mars 2024 at 7 h 38 min

        mais les soutiens de poutine s’en foutent bien souvent… ils savent que les infos russes ne sont pas vraies..ils disent similairement fausses..
        ce n’est poutine qu’ils soutiennent il exècrent non pas le gouvernement mais l’évolutionde la société.
        la propagande a un effet mais les guerres se gagnent sur le champ de bataille.

        -2
      • Avatar
        jacques lemiere
        1 mars 2024 at 7 h 58 min

        par exemple certains voient dans votre défense de politique migratoire une raison de pencher vers poutine..

        « avec poutine au moins la russie reste russe. ».

        si l’identité ne peut être l’alpha et l’ oméga de politique migratoire. elle sera sans doute incontournable.. .

    • Ce qui la rend encore un peu plus qu’un peu plus inquiétante, c’est que l’IA est quelque chose de nouveau, au stade des balbutiements. L’intelligence de l’humain va la rendre omniprésente et omnipotente : jusqu’où ? Personne ne sait et personne ne peut l’imaginer. Je ne sais pas si l’individu en tant que « roseau pensant » disposant pour ce faire d’un « libre arbitre » y trouvera vraiment sa survie. Quand on voit la puissance hallucinatoire des simples médias actuels qui parviennent à formater les masses humaines sans grands efforts , je crains le pire ….

      • Avatar
        jacques lemiere
        1 mars 2024 at 8 h 13 min

        je doute de la pertinence de masses non consentantes…

        la critique des medias est erronnée..
        les média ne sont que peu pluralistes… mais c’est le reflet des choix des gens..

        -2
        • Avatar
          jacques lemiere
          1 mars 2024 at 17 h 46 min

          mouais…

          vous me dites que créer un média est impossible en France???

          il ya un véritable danger que les gouvernement prennent prétexte qu’internet diffuse des info fausses libres pour établir une alliance malsaine avec les médias en leur taillant des lois sur mesure..contre..je ne sais quoi..

          mais non..
          on peut créer un média en france et donc…
          les français ont les médias qu’ils méritent.ou qu’ils désirent;.des médias qui surtout les caressent dans le sens du poil.

          • Avatar
            jacques lemiere
            4 mars 2024 at 8 h 08 min

            yaka ..interdire les médias..

            donc ne dites pas les medias mais les médias existants et encore…une large majorité..

  • Avatar
    jacques lemiere
    1 mars 2024 at 7 h 33 min

    Un problème de lia est la crédulité.. pas nouveau..

    l’autre est la facilité à générer des fausses « preuves »

    mais sinon entendre des aneries est un prix acceptable à payer pour qu’un citoyen ait la possibilité de pouvoir de parler à une large audience

    le politicien pratique la manipulation de masse dès qu’il dit interet général..les médias classiques se raccrochent aux branches du monopole perdu.

    Le fait que des français croient le régime de pootine tout en sachant qu’il est diktatorial plutôt que le gouvernement français est aussi le signe d’un scepticisme salutaire.. mais aussi parfois d’un positionnement d’opposition à la démocrature inquiétant car illiberal.. un tiran pour faire le ménage.. ramener l’ordre..serait necessaire en france

    -1
    • Tyrannie : faire confiance au chef et se méfier du voisin.
      Démocratie : faire confiance à son voisin et se méfier du chef.
      Eschyle ne disait pas autre chose :
      – C’est sans doute un mal inhérent à la tyrannie, de n’avoir pas confiance en ses amis.
      Ni Bastiat :
      – Nos adversaires croient qu’une activité qui n’est ni soudoyée ni réglementée est une activité anéantie. Nous croyons le contraire. Leur foi est dans le législateur, non dans l’humanité. La nôtre est dans l’humanité, non dans le législateur.

      • Avatar
        jacques lemiere
        1 mars 2024 at 17 h 49 min

        Je n’ai pas foi dans l’humanité… je n’ai pas d’autres option’ que d’esperer que les gens ne cèdent pas à abuser de leur force. un libéal vote essentiellenet avec ses pieds..

        • Avatar
          jacques lemiere
          1 mars 2024 at 17 h 52 min

          mais le simple fait que je comprenne que des gens en sont arrivés à prefer des régimes ouvertement liberticides au machin français me fait un peu peur..

          • Les principaux concernés n’ont rien préféré. Dans ces pays – Chine, Russie, Algérie, Iran… – ils ont été ballottés d’une autocrature à l’autre – communiste, militaire, monarchiste, islamiste… – sur plusieurs générations, sans qu’on leur demande jamais leur avis.
            Ceux qui le donnent, leur avis, hic et nunc, devisent, tranquilles, les pieds dans le sable, un bloody mary dans une main, et leur yeux las, testostérone en berne, croisant, parfois, au loin, une silhouette siliconée.
            Comme dit Taleb : ils ne jouent pas leur peau.

            -1
  • « Cela impliquera avant tout de ne pas céder trop de terrains aux industriels… »
    Tant que l’IA ne saura pas que l’expression est « céder du terrain » et non « céder des terrains », l’intelligence naturelle aura encore de beaux jours devant elle. Accessoirement aussi, l’intelligence naturelle permettra aux libéraux de se rebeller face à ceux qui prétendent mettre les vertus du contrôle des bureaucrates au dessus des choix des industriels…

    • L IA n est qu un outil à notre disposition, il ne sera que ce nous en ferons
      L IA ne fait qu analyser de tres grandes banques de données que nous mettons à son service
      Bien des confusions……🤣🤣🤣

      -2
      • Confusionné, c’est çui qui dit qui l’est.
        L’IA n’est pas un outil dans les mains de l’individu, mais dans celles du propagandiste et de l’emmerdeur. Celui-là même auquel les nouvelles lois donnent tout pouvoir.
        Un outil, si on voit qu’il ne sert qu’à saloper le boulot, on le jette. L’IA, la cible ne peut pas la refuser.

        -1
      • Avatar
        jacques lemiere
        4 mars 2024 at 8 h 12 min

        oui et non..
        on commence , .si on réglemente l’ia , par en donner une définition claire…

        ce n’est pas l’analysé de base de données justement..
        ce serait « autre chose »..

        ne pas se soucier des notations négatives sans argumentation..

  • Ces histoires de réglementations c’est du grand n’importe quoi. Aujourd’hui, actuellement, l’IA en est à ses balbutiements. Il n’y a donc aucune raison de réglementer qqch qui ne s’est même pas encore développé. Bientôt on va faire des réglementations sur des choses qui n’existent pas encore, juste au cas où, « le principe de précaution réglementaire », du genre, bon aujourd’hui c’est impossible, mais demain, peut être que si, alors on l’interdit dès maintenant.
    Cela me rappelle l’excitation réglementaire qui avait eu lors du clonage. Un crime contre l’humanité a été créé contre qqch qui n’a jamais eu lieu (non pas par interdiction, mais par difficultés techniques). Tout cela pour rien, car la technologie du clonage est restée marginale…

  • Avatar
    Thomas Toketchup
    1 mars 2024 at 17 h 43 min

    « les risques liés à l’IA, notamment en matière de vie privée, de pertes d’emplois, de concentration de la puissance de calcul et de captation de la recherche, sont considérables ».
    « Compte tenu des inquiétudes, il est clair que l’idée d’une IA éthique et respectueuse des droits fondamentaux est vendeuse »
    « Cela impliquera avant tout de ne pas céder trop de terrains aux industriels lors de son implémentation »
    Masturbation intellectuelle de juriste et lieux communs ! Pendant que nos juristes cherchent par tous les moyens à entraver le développement d’une technologie au nom de l’éthique, les américains et les chinois eux ne s’embarrassent pas de ces considérations pour enfants de 5 ans ayant le Q.I proche d’une huitre de Thierry Breton.
    Depuis la nuit des temps, il y a toujours eu des imbéciles qui rejetaient le progrès au nom de la morale.
    L’IA est un outil. Un outil hyper performant pour les usages que l’on veut en faire, mais c’est un simple outil. Un outil n’est ni bon ou mauvais, ni moral ou immoral.
    Un couteau de cuisine peut servir à découper un gigot ou à trucider sa belle-mère. Ce problème existe depuis la nuit des temps et existera toujours.
    Lorsqu’une nouvelle technologie apparait les juristes, mais pas qu’eux, s’empressent d’expliquer que celle-ci va être manipulée, qu’elle va permettre à des individus malfaisants de contrôler le monde, etc. etc.
    En réalité, juristes ou consultants sortis de Sciences Pipeau ou de l’ANE (palindrome) ne sont, dans le meilleur des cas, que les mouches du coche de la technologie. Ils croient que leurs délires réglementaires contribueront à faire avancer celle-ci. Dans le pire des cas, ces mêmes juristes ou consultants, érigent tout un arsenal juridique qui va venir bloquer toute évolution créative d’une nouvelle technologie. Et ça pour le plus grand bonheur de nos concurrents !

  • Rappelons que l’UE est à sa troisième version d’une réglementation qui, à mon avis, est déjà obsolète comme les deux premières. Ceux qui écrivent les réglementations n’ont aucune idée de l’IA dans 5 ans. Donc, ils s’appuient sur leurs connaissances d’hier. Autrement dit, ils vont, une fois de plus, verrouiller l’innovation européenne. En d’autres termes, si l’IA ne peut progresser que grâce aux mathématiciens, il se pourrait que l’hémorragie qui a déjà débuté en France s’intensifie.
    Une fois de plus, l’Europe ne sera que la cliente des sociétés qui ne tiendront pas compte des normes actuellement absurdes.
    Quelqu’un a écrit : Les USA inventent, la Chine copie et l’Europe pond des normes !
    Notre continent est en pleine décadence et les petits hommes gris de Bruxelles accélèrent le processus !

  • Quand l’homme a su fabriquer un couteau, il l’a utilisé soit pour couper son morceau de mammouth soit pour trucider son semblable qui tournait autour de sa femme. C’était pourtant le même couteau !
    Une innovation n’est ni éthique ni pas éthique, c’est ainsi depuis la nuit des temps.

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don
7
Sauvegarder cet article

Notre nouveau et brillant Premier ministre se trouve propulsé à la tête d’un gouvernement chargé de gérer un pays qui s’est habitué à vivre au-dessus de ses moyens. Depuis une quarantaine d’années notre économie est à la peine et elle ne produit pas suffisamment de richesses pour satisfaire les besoins de la population : le pays, en conséquence, vit à crédit. Aussi, notre dette extérieure ne cesse-t-elle de croître et elle atteint maintenant un niveau qui inquiète les agences de notation. La tâche de notre Premier ministre est donc loin d’êtr... Poursuivre la lecture

6
Sauvegarder cet article
Inflation et plus-value dans l’immobilier

En règle générale, les calculs du prix de l’immobilier publiés dans les journaux et revues, ou cités sur les sites internet ou les chaînes de radio-télévision sont effectués sans tenir compte de l’inflation. Les interprétations des résultats qu’ils présentent n’ont guère de sens.

La hausse des prix de l’immobilier est de toute évidence incontestable, mais il est nécessaire de rétablir une mesure rationnelle et réaliste de cette augmentation.

Cette mesure est déduite de deux indices défin... Poursuivre la lecture

7
Sauvegarder cet article

Les milieux financiers découvrent tardivement les faiblesses du modèle chinois, pourtant perceptibles depuis une décennie. C’était prévisible pour tout observateur de la démographie, des mécanismes de développement et du communisme.

On peut penser notamment aux dettes souscrites en contrepartie de faux actifs, par exemple pour la construction de logements, alors qu’il y a de moins en moins de jeunes pour les occuper ou d’infrastructures redondantes, faisant momentanément la joie des bâtisseurs. Je me doutais bien que ces dettes sortira... Poursuivre la lecture

Voir plus d'articles