Sam Altman et ChatGPT : lanceur d’alerte ou stratège habile de l’IA ?

L’audition de Sam Altman (créateur de ChatGPT) devant le congrès américain révèle une stratégie intelligente pour prévenir toute dérive.

Partager sur:
Sauvegarder cet article
Aimer cet article 2

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Sam Altman et ChatGPT : lanceur d’alerte ou stratège habile de l’IA ?

Les points de vue exprimés dans les articles d’opinion sont strictement ceux de l'auteur et ne reflètent pas forcément ceux de la rédaction.
Publié le 1 juin 2023
- A +

Depuis maintenant quelques mois, il ne se passe pas un jour sans que l’on parle de ChatGPT, l’interface conversationnelle développée par Open AI.

Lorsque l’outil est évoqué par les médias, les politiques, le grand public… c’est souvent avec une certaine forme de fascination entremêlée d’inquiétude, tant son modus vivendi, ses fonctionnalités, peuvent impacter notre quotidien et bouleverser nos sociétés, ne serait-ce que dans le domaine de l’éducation, ainsi que tout métier et activité liés à la rédaction.

Notons et portons à connaissance de nos chères têtes blondes que le détecteur d’IA « content at scale » tout comme ChatGPT Detector, créé par une entreprise franco-canadienne, Draft & Goal, entre autres, permet de détecter l’écriture ChatGPT. À bon entendeur !

ChatGPT a en quelque sorte matérialisé et popularisé auprès du grand public la notion d’intelligence artificielle… Chat GPT a rendu l’IA et son potentiel plus compréhensible de tous. L’outil soulève cependant beaucoup de questionnements majoritairement centrés sur tous ses dévoiements d’usages possibles, susceptibles d’altérer le bon fonctionnement de nos sociétés (impact prévisible sur un grand nombre de professions, des suppressions potentielles d’emplois massives) et de nos démocraties (augmentation exponentielle de fausses informations…).

Ce faisant, en devenant en quelque sorte, de par sa notoriété, l’Alpha et l’Omega du secteur de l’IA, ChatGPT demeure l’arbre qui cache la forêt et ne saurait dissimuler de nombreuses avancées redoutables en matière d’IA ; dont le développement postulé de « système d’arme létale autonome (SALA), parfois qualifié de robot tueur » et la crainte que les États impliqués dans des conflits n’y aient recours à moyen terme.

L’homme ne serait plus alors impliqué dans la prise de décision et le respect des règles d’engagement conventionnel. Naturellement, vous ne trouverez aucun État en situation de conflit armé reconnaissant poursuivre le développement de telles armes, et encore moins disposer de tels robots efficients.

Mais revenons à l’habile audition de Sam Altman.

 

Sam Altman : un bien curieux lanceur d’alerte

Devant les inquiétudes soulevées par son « invention », le créateur de ChatGPT Sam Altman, PDG d’OpenAI, a été auditionné le mardi 16 mai par le Congrès américain, et plus précisément par les membres de la commission des affaires juridiques du Sénat.

Parmi les faits marquants de sa déposition, nous allons – pour tout bon auditeur – de surprise en surprise. Si Hawking avait déclaré lors d’une interview à la BBC accordée en 2014 que « L’intelligence artificielle pourrait mettre fin à l’humanité », lors de son audition, le créateur de Chat GPT s’est positionné étonnamment sur la même ligne et s’est montré à peine moins alarmiste. Il est allé jusqu’à se poser en pourfendeur intraitable des affres potentielles de l’industrie dans laquelle son entreprise évolue ! Semblant souvent prêcher contre sa propre paroisse, il n’a pas hésité à appeler la commission à une régulation urgente de sa propre activité. Une approche inédite, mais après tout, pourquoi pas ?

À l’entendre dérouler son discours, et répondre sans la moindre langue de bois, un lanceur d’alerte n’aurait pas été plus convaincant. Mais convenons qu’il est un lanceur d’alerte pour le moins curieux. Si nous nous penchons sur ses propos, l’homme a admis devant le Congrès que l’IA était une technologie à la fois « utile et dangereuse » capable de bouleverser de façon holistique notre société, que ce soit au niveau économique, politique (démocratie), social…

Il n’a pas manqué de mettre en garde ses auditeurs sur une technologie qui « pourrait » selon ses propres dires « tourner » mal – rien de moins – et d’avancer :

« Ma pire crainte est que nous – l’industrie – causions des dommages importants au monde. Je pense que si cette technologie va mal, elle peut aller très mal, et nous voulons nous exprimer à ce sujet et travailler avec le gouvernement. Nous pensons qu’une réglementation gouvernementale sera essentielle pour atténuer les risques liés à des modèles de plus en plus puissants. »

 

Sam Altman : talentueux expert du monkey management ?

Dans le même temps, et par-delà les propos tenus, à la fois « catastrophistes », pédagogiques et extrêmement lucides, si « être un homme, c’est s’empêcher », il semblerait évident que l’autorégulation se devrait d’être sa priorité, comme celle de ses pairs. Et de mon point de vue, c’est là tout le talent et la pertinence de l’intervention de cet homme : se dédouaner en amont de toute « catastrophe » prévisible…

Il n’a fait qu’utiliser une technique proche du « monkey management » (la métaphore du « singe sur l’épaule »), mise en lumière en 1974 par William Oncken, un spécialiste américain du management.

En effet, qu’a-t-il fait d’autre que se décharger de toute responsabilité en attendant des initiatives politiques ? Aurait-il dit : « ce que nous développons est extrêmement sensible et potentiellement extrêmement dangereux, maintenant trouvez des solutions ! » eut été une juste synthèse, et l’audition aurait pris pas moins d’une minute.

Après cette intervention, le voilà désormais serein, tout comme ses pairs, pour développer sans complexe des IA de plus en plus puissantes. Pour quelqu’un qui tremble à l’idée que sa branche « cause des dégâts à notre monde », son approche devant le Congrès relève du génie : c’est comme un lanceur d’alerte impliqué dans des activités potentiellement nuisibles qui voudrait qu’on l’arrête, faute d’être capable de s’autoréguler, pour préserver notre humanité des risques qu’il pressent. Pour rappel, en mars, deux mois avant son audition, OpenAI dévoilait GPT-4 capable d’interpréter du texte, mais aussi des images ; et d’autres acteurs poursuivent la marche en avant, comme Google qui a annoncé en mai des pubs personnalisées grâce à l’IA générative, certes utile pour les entreprises, mais, une fois de plus, pas vraiment transparente pour les usagers.

Outre cet appel à une réglementation devant le Congrès américain, l’homme est complexe, et c’est peu dire : en mai 2023, il menaçait de cesser ses activités en Europe en raison de la réglementation sur l’IA… arguant « qu’il n’était pas satisfait de la manière dont les réglementations étaient rédigées à l’heure actuelle. » Dont acte.

 

Un discours non pas hypocrite, mais extrêmement intelligent

Aussi paradoxal qu’il puisse sembler, le discours est extrêmement réfléchi, et de mon point de vue très intelligent et très calculé…

En se positionnant aux États-Unis comme un pourfendeur de l’IA et de ses dérives qu’il anticipe, en s’en remettant au législateur pour l’empêcher en quelque sorte de dériver, lui et ceux qui œuvrent dans ce secteur ont placé des barrières à l’entrée de toute poursuite judiciaire.

Par ailleurs, penser cette démarche et ce discours hypocrite et tout en contradiction me semble loin des objectifs poursuivis par l’audité, tout du moins sur le territoire américain. Une lecture différente m’apparaît plus juste : en allant exposer ainsi ses craintes, dresser les tableaux les plus sombres en cas de dérapages, en demandant avec grande insistance une régulation, tout comme le font Google, Microsoft et d’autres acteurs impliqués… le PDG n’est-il pas simplement allé protéger très habilement cette industrie, et donc son entreprise ? C’est mon sentiment. En cas de problème majeur sur les réseaux, lié à leurs activités et les outils qu’ils développent, l’administration américaine ne pourra pas prétendre ne pas avoir été prévenue, et se retrouve en quelque sorte piégée !

Par cette manœuvre très habile, quoi qu’il se passe demain, Sam Altman pourra se retrancher derrière un « Messieurs, mesdames, ne vous avais-je pas prévenu ? J’avais tiré le premier ! » Pour ce qui est de la régulation américaine souhaitée, au regard de la vitesse exponentielle de développement de l’IA, je ne peux que souhaiter du courage et de grandes compétences à ceux qui seront éventuellement chargés d’y réfléchir. Quant à une régulation mondiale. Que dire ? S’il est un synonyme d’utopie, il faudra le trouver.

Par ailleurs, et pour conclure, notons qu’il est des faits qui pèseront lourdement dans la mise en place, si ce n’est d’une régulation – qui me semble hautement improbable –  mais de garde-fous efficients fondés sur une réflexion éthique approfondie et mondiale. Les faits me laissent penser que la marche en avant de l’IA n’est d’ores et déjà plus contrôlable, elle ne sera que très difficilement contrôlée et outrepassera – in fine – toute éthique et toute régulation. Le potentiel du marché ne peut être ignoré par Altman (qui dénigrait sa propre activité), il ne peut être inconnu de ceux qui l’auditionnaient en feignant d’être séduits par tant d’honnêteté. Je ne peux ni le savoir ni encore moins l’affirmer, n’étant ni dans la tête de ce PDG ni dans celle de ses auditeurs.

A contrario, ce que je peux certifier par-delà ce discours surréaliste de contradictions, c’est que la société GlobalData a estimé que « le marché mondial de l’intelligence artificielle devrait croître à un taux de croissance annuel composé de 21,4 %, passant de 81,3 milliards de dollars en 2022 à 383,3 milliards de dollars en 2030 ! »

Chapeau bas monsieur Altman ! Chapeau bas.

« Il y a la prudence de l’aigle et celle des taupes. » Nicolas de Chamfort

Voir les commentaires (5)

Laisser un commentaire

Créer un compte Tous les commentaires (5)
  • Le danger est dans la confiance qu’on accordera à un générateur de billevesées, infatigable bavard diarrhéique, pourvoyeur de consensus absurde, normalisateur obsessionnel, exterminateur de toute dissidence.
    Il s’agit juste d’amplifier ce qui existe déjà en le confiant à une néo-théocratie dopée au pétaflop.

  • On savait qu’il existe des pompiers pyromanes…
    On sait maintenant que l’inverse n’est pas qu’un concept!
    Mais dans les deux cas de figure, le premier a toujours besoin du second pour prospérer.

  • J’irai même plus loin. Ces fortes régulations nécessaires pour contrôler cet outil dangereux vont avoir besoin de solides financements et payer nombre entreprises spécialistes de l’IA. La sienne par exemple?
    Avec le politique, une subvention pour « le développement l’IA dans un contexte de transition écologique, soutenable et équitable » n’est jamais très loin. En plus ça met des bâtons dans les roues des concurrents. Et après le CO2 généré par ces IA vont être la source du réchauffement climatique…

  • à travers le prisme des 36 stratagèmes, je dirai, comme la bataille est déjà gagnée pour Altman, qu’il « 瞞 天 過 海 » : « traverse la mer sans que le ciel le sache » ; ou, puisque la bataille est multiple : « 偷樑換柱 » « vole les poutres, échange les piliers » ; ce qui est sur c’est qu’il : « 上屋抽梯 » : « monte sur le toit et retire l’échelle »

  • Parmi les effets prévisibles de la réglementation d’une technologie (IA ou autre) il y a le fait que les nouveaux entrants ont plus de mal à venir concurrencer les acteurs en place. La réglementation est une barrière à l’entrée. Les entreprises comme OpenAI, Google et Microsoft sont très bien placées pour négocier avec les Etats les détails réglementaires. Les concurrents n’auront plus qu’à s’y plier. Très rusé en effet.

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Ce vendredi 2 février, les États membres ont unanimement approuvé le AI Act ou Loi sur l’IA, après une procédure longue et mouvementée. En tant que tout premier cadre législatif international et contraignant sur l’IA, le texte fait beaucoup parler de lui.

La commercialisation de l’IA générative a apporté son lot d’inquiétudes, notamment en matière d’atteintes aux droits fondamentaux.

Ainsi, une course à la règlementation de l’IA, dont l’issue pourrait réajuster certains rapports de force, fait rage. Parfois critiquée pour son ap... Poursuivre la lecture

Voilà maintenant quatre ans que le Royaume-Uni a officiellement quitté l'Union européenne. Depuis le Brexit, la Grande-Bretagne a connu trois Premiers ministres, et d'innombrables crises gouvernementales. Néanmoins, malgré le chaos de Westminster, nous pouvons déjà constater à quel point les régulateurs du Royaume-Uni et de l'Union européenne perçoivent différemment l'industrie technologique. Le Royaume-Uni est un pays mitigé, avec quelques signes encourageants qui émergent pour les amateurs de liberté et d'innovation. L'Union européenne, qua... Poursuivre la lecture

Un article de Philbert Carbon.

La Fondation Valéry Giscard d’Estaing – dont le « but est de faire connaître la période de l’histoire politique, économique et sociale de la France et de l’Europe durant laquelle Valéry Giscard d’Estaing a joué un rôle déterminant et plus particulièrement la période de son septennat » – a organisé le 6 décembre 2023 un colloque intitulé : « 45 ans après les lois Scrivener, quelle protection du consommateur à l’heure des plateformes et de la data ? ».

 

Protection ou infantilisation du cons... Poursuivre la lecture
Voir plus d'articles