Intelligence artificielle : « la machine peut être meilleure que l’Homme »

Un entretien avec Luc Julia co-fondateur de Siri, passé par Apple, désormais vice-président de Samsung en charge de l’innovation, auteur du best-seller « L’Intelligence artificielle n’existe pas ».

Par Corentin Luce.

À croire que les religions ne disparaîtront jamais. Ou plutôt le besoin de croire en quelque chose qui donne un sens au vivant et structure les organisations collectives. Une forme de transcendance. Le « retour du sacré », superbement analysé par Michel Maffesoli, n’en est peut-être pas un.

Il ne s’agit pas d’islam, de catholicisme ou d’un quelconque monothéisme. Spasmes sans doute éphémères de ce « clair-obscur » décrit par Gramsci. Cette nouvelle cause religieuse s’apparente à ce que l’on nomme l’Intelligence artificielle.

Depuis l’apparition de ce mot, en 1956 lors d’une conférence aux États-Unis qui s’est tenue au Dartmouth College, jusqu’à la filmographie foisonnante d’Hollywood, en passant par la science-fiction, ce terme suscite peurs irrationnelles et fantasmes les plus fous.

Comme tout discours religieux, les réactions sont épidermiques, il y a les croyants et les hérétiques. Les premiers, souvent les géants de la tech, nous annoncent, entre hubris démesuré et stratégies de communication, une Atlandide 2.0. Un hippisme modernisé, en fait. Les seconds, véritables marchands de peurs jouant sur nos biais cognitifs et notre obsession du sensationnel, dépeignent avec solennité un monde où la machine asservirait l’Homme, dans une revanche expiatoire.

Comme toujours, la première victime de ces croyances collectives est la vérité. Une fois de plus, la situation est ironique : des États-Unis à la Hongrie, des murs sont rebâtis alors que la frontière entre réalité scientifique et ignorance est réduite à néant.

Dans ce monde du verbe haut et des coups bas, difficile d’entendre les paroles d’un Zarathoustra qui serait affranchi de la langue de bois, des fausses croyances et des impératifs de communication.

Luc Julia co-fondateur de Siri, passé par Apple, désormais vice-président de Samsung en charge de l’innovation, auteur du best-seller L’Intelligence artificielle n’existe pas mais aussi chercheur et ingénieur émérite, est assurément un Zarathoustra. Moins le côté ermite, assurément. Et l’humour, en bonus.

Le rendez-vous était fixé à 20 heures tapantes. Conditions sanitaires et vacances obligent, l’entretien se fait par écran interposé. Chemise hawaïenne bleue en guise d’étendard. Pendant un peu moins d’une heure d’un échange passionnant et franc, Luc Julia tord le cou aux idées reçues et prodigue une véritable leçon d’humilité et de pragmatisme. Salvateur.

Prêt à gravir la montagne avec lui ?

Biographie

Vous avez fabriqué votre premier robot à l’âge de 9 ans pour faire le lit à votre place, est-ce bien le cas ? D’où vient cette passion qui s’est manifestée si vite pour les robots et la programmation ?

Par fainéantise, je pense. J’espérais pouvoir déléguer cette activité que je n’appréciais pas beaucoup. C’est surtout ça, la technologie : laisser les tâches rébarbatives, répétitives et peu intéressantes aux robots. En l’occurrence, faire le lit à 9 ans, il ne s’agit d’une tâche que l’on fait avec plaisir. Pour être honnête, ce robot ne faisait pas très bien le lit, en plus. 

Pourquoi vous être spécialisé dans le domaine des interfaces vocales ?

C’est la même réponse que pour la première question. Pour moi, le clavier était quelque chose d’insupportable car c’est une démarche qui n’est ni pratique ni naturelle. Quelle est la façon plus naturelle de s’exprimer ? La voix. Parler. La voix permet de transmettre énormément d’informations et de subtilités qu’un clavier et une souris n’arriveront jamais à retranscrire.

La puissance cognitive de la parole est beaucoup plus forte. L’écrit a aussi ses vertus, évidemment mais la parole a cette spontanéité. Et selon moi, on ne pouvait pas imaginer d’interface Homme-machine sans la voix.

En 1997, vous déposez avec votre ami Adam Cheyer les brevets de ce qui deviendra plus tard Siri (« The Assistant »). Qu’est-ce que valait un assistant vocal à cette époque ?

Il s’agit du premier assistant vocal de l’histoire. Personne n’y avait pensé avant. À l’époque, il s’agissait simplement d’un petit sorcier âgé à la barbe blanche qui était sur un écran qui vous parlait pour jouer le rôle d’intermédiaire entre vous et les services.

À l’époque, il faut évidemment se remettre dans le contexte, les services sont assez limités. On est en 1997, Internet vient à peine d’arriver. Ces services sont représentés sous forme de pages web et l’assistant va permettre d’aller chercher ces informations contenues dans les pages web.

Quelque part, c’est un moteur de recherche qui ne dit pas son nom. Par exemple, à l’époque on pouvait demander : « trouve-moi un hôtel à San Francisco ». Sans Google à cette époque, je peux vous assurer que ce n’était pas simple.

En 2010, Siri est racheté par Apple, pourquoi rejoindre la célèbre marque à la pomme croquée ?

C’est une bonne question, je me la pose encore… C’était mon « bébé », avec Adam Cheyer, on a créé cette technologie. Au moment du rachat, Adam rejoint Apple et me propose de le rejoindre. Je n’avais pas très envie dans la mesure où je préfère les systèmes ouverts que fermés, comme c’est le cas d’Apple.

On travaillait depuis tellement longtemps sur cet assistant que j’étais obligé de continuer l’aventure. Et puis avec Apple, on se disait qu’on allait pouvoir toucher énormément d’individus, beaucoup plus que dans notre coin. On est passé de 150 000 utilisateurs à 200 millions dès la première année. L’ego a aussi joué, donc. On croyait aussi que cette technologie était révolutionnaire et ça l’a été.

En 2011, Siri est intégré à l’IPhone 4S et reçoit les éloges des utilisateurs et des commentateurs : rétrospectivement, comment expliquez-vous la stagnation d’Apple en matière d’assistant vocal, au point d’être dépassé par Amazon et Google ?

La technologie que l’on utilisait datait des années 1990 et se basait sur des statistiques avec le modèle de Markov caché. Dans les années 2000, il y a eu de nouveaux progrès en IA, surtout à partir des années 2010 avec le machine learning et le deep learning. Siri est sorti en 2011, et Apple n’a pris ce tournant que quelques mois après, comme l’ont fait Google et Amazon plus récemment par exemple. Nous on était partis pour et on poussait en ce sens mais Apple n’a pas compris cela et on a quitté Apple. Google a d’ailleurs sorti très rapidement après Siri un assistant vocal (2013) mais s’est tourné très rapidement vers le machine learning. Amazon est directement arrivé sur le marché avec le machine learning.

Par la suite, vous intégrez Samsung en qualité de vice-président chargé de l’innovation. Vous réussissez à faire installer à Paris un laboratoire dédié à l’IA en 2018 que vous dirigez depuis lors. Quel bilan tirez-vous de ces deux années et quel est votre regard sur l’évolution de l’écosystème français en matière d’IA ?

Le bilan est bon, mais je ne peux pas en dire plus. C’est en effet un laboratoire dédié à l’IA, même si je ne sais pas ce dont il s’agit alors que je travaille dans ce domaine depuis 30 ans, mais aussi à l’innovation augmentée. Concernant l’IA en France, on est les meilleurs au monde. La raison ? On forme les meilleurs mathématiciens au monde. Et l’IA, c’est des mathématiques et des statistiques aujourd’hui. Et il y a des progrès aussi parce que depuis quelques années, on redécouvre l’entrepreneuriat en France, notamment en 2012 lorsque Fleur Pellerin crée la French Tech.

Cela a permis à nos élites, formées dans les grandes écoles, de comprendre qu’il y avait une autre voie que de travailler dans la grosse entreprise du secteur. On s’est ré-aperçu que l’innovation venait avant tout des petites structures, des startups qui sont obligées de créer.

Ce qui ne veut pas dire que les grosses structures n’innovent pas mais cela passe souvent par le rachat de ces startups innovantes. Et il est important de ne pas forcer la création d’écosystèmes, c’est pour cela que Saclay est une erreur. Des écosystèmes comme Silicon Sentier, en plein cœur de Paris, sont de vrais exemples.

Déconstruire les mythes et réfléchir à l’IA

Ray Kurzweil, lauréat de la « National Medal of Technology » en 1999, génie incontesté travaillant chez Google depuis décembre 2012, déclarait que 2045 serait l’année où « l’intelligence non-biologique créée sera un milliard de fois plus puissante que toute l’intelligence humaine d’aujourd’hui ».  La singularité serait proche selon lui. Dans votre ouvrage, vous tordez le cou aux idées reçues et autres fantasmes concernant l’IA, mais comment expliquer ce vide abyssal entre les discours prophétiques des gourous de la Silicon Valley et la réalité scientifique ?

C’est plus sexy de dire que l’IA va nous dépasser. Les films marchent mieux si on nous explique que les robots vont exterminer l’espèce humaine que de dépeindre une IA faible, comme c’est le cas. Tous ces films d’Hollywood et ces discours des géants de la tech, cela fait vendre du papier, fait le buzz, permet de tirer la couverture sur soi mais ça n’a rien à voir avec la réalité scientifique.

Il y a beaucoup de marketing et de communication dans ces discours. Mais c’est dangereux, on crée des tensions inutiles car on fait peur, en expliquant que cela va détruire des emplois par exemple. Cela peut aussi décevoir, car on promet des choses qui n’arriveront sûrement jamais et le risque d’assister à un autre « hiver de l’IA », comme il y en a dans les années 1950 et 1960.

Les gens sont déçus, donc on arrête d’investir et des domaines tombent en désuétude. C’est pour cela qu’il faut être honnête, dire ce qui est possible, ce qui ne l’est pas et rêver un peu, oui mais le reconnaître.

Dans votre ouvrage L’Intelligence artificielle n’existe pas, vous expliquez que deux discours vous agacent : l’alarmisme catastrophique de certains et la technophilie béate des autres, nos biais cognitifs nous poussent vers ces discours irrationnels, mais ne sont-ils pas utiles pour autant ? Le fait qu’il y ait plusieurs « hiver de l’IA » ne peut-il pas permettre de relativiser la situation actuelle et les promesses mirobolantes des géants de la tech ?

Si un autre « hiver de l’IA » venait à se réaliser, les conséquences seraient beaucoup plus dramatiques que par le passé car l’IA est partout dans notre quotidien. Cela va affecter beaucoup de personnes, des milliards. Concernant la possible utilité de ces deux discours éloignés de la réalité scientifique, je pense que c’est dangereux, surtout concernant les motivations.

Penser les enjeux des technologies et ses possibles dérives avec la science-fiction par exemple est évidemment utile mais cela ne doit autoriser le mensonge délibéré ou la peur pour manipuler. Évidemment que la technologie peut avoir des conséquences terribles mais il ne faut jamais oublier que c’est l’humain qui la contrôle et la crée. C’e n’est pas la faute de l’IA, mais la nôtre. C’est toujours nous qui décidons à la fin.

Qu’est-ce qui différencie l’intelligence humaine des IA les plus développées aujourd’hui que vous préférez appeler « intelligence augmentée » ? 

Je le fais avant tout pour garder l’acronyme IA même si ça n’a rien à voir avec l’intelligence augmentée. Je dirais même que c’est notre intelligence qui est augmentée grâce à ces technologies parce qu’il ne s’agit que d’outils qui nous servent à mieux réaliser des tâches, et plus rapidement. Mais il est tout à fait possible d’avoir un débat sur l’impact de certaines technologies sur notre intelligence.

La différence essentielle entre nous et ce que l’on appelle à tort l’IA réside d’abord dans la capacité à faire plusieurs activités. L’Homme est un couteau suisse, il est multifonctionnel tandis que l’IA ne peut être douée que dans un domaine très particulier (les échecs ou le jeu de Go). L’Homme peut parler de tout, surtout les Français. L’IA, non.

En somme, la machine peut être meilleure que l’Homme, mais c’est systématiquement le cas dans des domaines bien particuliers. L’autre différence selon moi réside dans le pouvoir de créer. On peut débattre autour de la possibilité ou non des IA de créer, dans le domaine de l’art par exemple. Selon moi, une énorme différence entre l’intelligence humaine et les IA réside dans le fait que l’Homme peut créer quelque chose qui n’existe pas alors que les IA ne font que récréer ce qu’on leur a dit de faire, à partir de données existantes.

Évidemment, on se sert nous aussi de ce qui existe pour créer mais notre créativité est réelle, pas celle de l’IA car elle se base sur des données anciennes. Il n’y a pas de projection. L’IA, c’est des mathématiques, deux grandes branches : le machine learning, deep learning c’est-à-dire des statistiques et une branche logique, c’est-à-dire des régles : si…  Ces règles, ce sont nous qui les éditons donc ce sont des choses qui existent. 

Vous écrivez : « Il n’y a pas d’intelligence dans le machine learning ou le deep learning. Ce n’est que de la reconnaissance. Le robot ne prend pas de décisions, il fait ce qu’on lui dit ». Dans cette reconnaissance, le rôle de la data est central. Certains parlent même de dataïsme pour définir la future croyance collective (Yuval Noah Harari), partagez-vous sa prédiction et quel est votre regard sur la protection des data ?

Les IA en effet ont besoin d’énormément de données pour fonctionner. Je trouve le RGPD excessivement utile, même si cela peut paraître étonnant. Le RGPD a en effet des vertus éducatives car cela a permis à beaucoup de personnes de comprendre que les données sont une denrée extrêmement précieuse.

Le RGPD a rendu possible une prise de conscience même si on peut la contourner extrêmement facilement, tout le monde le fait. Mais cette prise de conscience grâce au RGPD peut déboucher sur d’autres formes de régulation, comme le fait de pouvoir monnayer les données si on y consent. Le choix est extrêmement important. La preuve en est, la Californie a repris les dispositions du RGPD dans un texte adopté en 2020. 

Plus globalement, quelles régulations faudrait-il imaginer pour l’IA : doit-on l’attendre des pouvoirs publics, laisser les entreprises s’autoréguler ou réapprécier le rôle des serments et autres chartes éthiques ?

Il doit y avoir une régulation. Je prends souvent l’exemple de l’atome avec les bombes nucléaires. L’éthique personnelle, c’est une bonne chose mais il y a toujours une course quelque part donc l’autorégulation est une vaste fumisterie. Pour la bombe atomique, on a eu besoin d’un cadre mondial. Peut-être que cela sera aussi le cas pour l’IA mais le plus important est qu’il y ait régulation.

Au-delà des régulations, nous allons également être confronté à un choix. L’IA avec les big data est une aberration écologique. En tout cas, la façon dont elle fonctionne aujourd’hui. L’IA et le tout dématérialisé provoquent une concentration extrême de serveurs dans des data centers très énergivores. 

Le problème principal de l’IA est la compréhension des data qu’elle utilise. L’exemple du robot conversationnel « Tay » lancé sur Twitter par Microsoft en 2016 est frappant : « Tay » se nourrit des précédents échanges pour s’améliorer, sauf que des individus en ont profité pour détruire l’expérience : en quelques heures, Tay est devenu l’un des comptes les plus racistes et misogynes de Twitter. Une IA pourra-t-elle un jour comprendre les data qu’elle utilise, ou englobez-vous la compréhension comme une faculté innée, réservée à l’espèce humaine ?

Les notions d’inné et d’acquis sont des débats insolubles, donc je ne sais pas vraiment. Ce que je sais, c’est que les machines ne comprennent rien des données qu’elles utilisent ou en tout cas pas toutes seules. Dans ce cas, il faut un humain pour superviser. Donc non, les machines ne comprendront sans doute jamais les données qu’elles utilisent.

Quel est le pourcentage de chance que l’on passe d’une IA « faible » à une IA « forte » ? Vous dites qu’il faudra d’autres technologies, « sur lesquelles on patine encore », quelles sont-elles ? Les freins sont-ils conséquents ou, à horizon 10, 15 ans, peuvent être surmontés ?

Le pourcentage est 0, avec les techniques que l’on utilise aujourd’hui, c’est-à-dire les outils mathématiques. Si on utilise autre chose, je ne sais pas. Cet autre chose, si l’on souhaite se rapprocher d’un cerveau humain, serait du domaine de la biologie ou de la physique. Ces deux domaines sont dans notre cerveau, les mathématiques en sortent. Les mathématiques, c’est artificiel ; la biologie et la physique, c’est réel. Si on veut créer une IA forte, il faudra faire d’énormes progrès en biologie et en physique, mais les techniques actuelles en sont très loin.

Mais même avec d’énormes progrès, cela resterait compliqué. La vérité est que l’on ne comprend rien au cerveau. Les meilleurs spécialistes disent qu’on comprend entre 20 et 40 % du cerveau. Donc, le pourcentage dans 15 ans, même avec ces autres technologies, reste 0. Dans 100 ans, on n’est pas loin de zéro non plus. On est sur Terre depuis trois millions d’années et on ne comprend même pas la moitié du cerveau. C’est déjà énorme mais ça n’est pas suffisant pour voir une IA forte.

En tant que co-fondateur de l’assistant vocal Siri, vous connaissez bien les problématiques liées à l’effet ELIZA avec des spécialistes qui souhaitent même donner des droits aux robots. Alors que les agents conversationnels se développent, que faire pour limiter l’effet ELIZA et ses conséquences néfastes ?

On revient aux discours délirants sur l’IA, cela fait vendre plus de journaux même ça n’est en rien comparable à la réalité. Je ne crains pas une multiplication de l’effet ELIZA car j’essaie de me l’expliquer. Il n’y a rien de magique dans l’IA. Il faut rester dans le contrôle et pour cela, il faut s’éduquer. L’éducation est extrêmement importante dans l’IA. Mais nous ne sommes qu’aux balbutiements de l’IA, donc il y a aussi ces discours parce que c’est très nouveau, depuis les années 2010 presque. 

Avec la crise du coronavirus, il semblerait que la robotisation et les exemples d’application de l’IA se développent. Les enjeux pour l’IA sont multiples, entre un possible bouleversement du domaine éducatif, un impact écologique fort, un marché du travail en pleine mutation… Qu’en pensez-vous ?

Le domaine éducatif, d’abord. Apprendre à programmer ne sert à rien, car les langages de programmation changent tous les jours. Il faut apprendre les mathématiques. À partir de là, on peut comprendre l’informatique, l’IA… Concernant la question du travail, c’est un débat que l’on a à chaque révolution industrielle.

Je ne crois pas que l’IA va faire disparaître le travail. Des métiers vont être détruits, d’autres seront créés. Ce n’est pas nouveau, cela date de la nuit des temps. Là, seulement, c’est extrêmement rapide et à grande échelle et dans tous les domaines. 

Aux jeunes générations, je leur conseille d’apprendre à apprendre. Il n’y a aucune chance que vous fassiez le même métier toute votre vie. J’ai fait pendant 40 ans la même chose, j’ai beaucoup de chance, je suis passionné par ce que je fais mais c’est une chose qui ne sera plus possible. Il faut apprendre à apprendre, à se former. Les meilleurs seront ceux qui savent s’adapter à des fonctions et environnements qui changent. 

Le quotidien en 2030-2040

Dans votre ouvrage, vous vous attachez également à décrire le monde dans un futur proche, à horizon 2030 – 2040. C’est un monde ultra-connecté où tous les objets sont presque nos « amis virtuels ». Votre discours résolument optimiste contraste justement avec cette projection dans ce monde un peu froid. Pensez-vous que les technologies peuvent rapprocher les individus ? 

Pas Facebook, en tout cas. Excepté les réseaux sociaux, je ne crois pas que c’est la vocation des technologies que de nous rapprocher. C’est une idée récente avec Facebook etc. Quant au monde froid que je décris dans mon ouvrage, le contraste est intéressant mais c’est un choix. Le grand enjeu avec l’IA et les nouvelles technologies, c’est la question du choix. Mais ce choix doit être informé et éduqué.

Luc Julia, L’intelligence artificielle n’existe pas, First éditions, 2019, 140 pages.

Vous souhaitez nous signaler une erreur ? Contactez la rédaction.