Vers une intelligence artificielle ubiquitaire explicable

Le développement d’IA ubiquitaires et explicables marque une rupture importante dans l’histoire de l’intelligence artificielle.

Partager sur:
Sauvegarder cet article
Aimer cet article 0

Promouvoir la liberté n’est pas gratuit

Mais cela peut aider à réduire vos impôts de 66%

Faites un don dès maintenant

Faire un don

Vers une intelligence artificielle ubiquitaire explicable

Publié le 10 juillet 2018
- A +

Par Thierry Berthier.

Il ne se passe plus une semaine sans que la presse ne rapporte les derniers progrès de l’intelligence artificielle ou ne mette en lumière des défis qu’elle s’apprête à relever. Certains articles publiés ont d’ailleurs parfois tendance à prêter plus de capacités à l’IA qu’elle n’en possède réellement, oubliant ainsi que l’état de l’art de l’IA est confronté à la complexité algorithmique des éléments.

Cela dit, la montée en puissance des techniques d’apprentissage automatique transforme en profondeur notre façon d’envisager le calcul, de construire des prévisions, de produire de l’aide à la décision, ou d’installer de l’autonomie dans les systèmes.

Nous ne nous situons qu’au tout début de l’histoire de l’IA et de cette ère de Turing qui trouve son origine dans les années 1950. Tout reste à faire ou presque pour déployer massivement des composants de Machine Learning (ML) qui rendront « intelligents »  les objets de notre environnement et engendreront une intelligence artificielle ubiquitaire et explicable, accessible à tous, partout, tout le temps.

Les six défis de l’apprentissage automatique

La figure suivante représente les six principaux vecteurs de progrès attendus dans le domaine de l’apprentissage automatique qui permettront de déployer des IA ubiquitaires explicables.

Figure 1 – Six vecteurs de progrès en Machine Learning

En réduisant les délais de mise en production des plateformes et les coûts de déploiement, les vecteurs de progrès 2, 3 et 4 vont rendre les composants ML de plus en plus performants et vont accélérer leur adoption dans l’ensemble des secteurs concernés, industriels, économiques, financiers et militaires. En abaissant la limite des volumes minimaux de données d’entrainement, l’apprentissage automatique adressera de nouveaux problèmes sur lesquels il demeure inopérant aujourd’hui faute de données suffisantes.

Le sixième vecteur de progrès s’applique à la cybersécurité des composants de Machine Learning. Les attaques par exemples contradictoires ou par orientation et influence de la phase d’entrainement d’une plateforme ML ont prouvé (en 2016) la vulnérabilité de ces architectures. Apporter de la sécurité « by design » à un composant ML contribuera à rendre résilient l’ensemble du système qui l’exploite.

Plus disruptifs encore, les vecteurs de progrès 1 et 5 donneront l’accès à de nouveaux domaines d’application et de développement pour les technologies du Machine Learning.

Le déploiement local de composants ML induit des problématiques d’optimisation des puissances de calcul et de stockage disponibles sur une architecture donnée, de compatibilité et d’intégration de ces composants à l’ensemble des systèmes, petits et grands. Comment en effet doter un simple objet connecté, commercialisé quelques euros, de capacités d’apprentissage sans augmenter sa puissance de calcul, ses capacités de stockage, de communication et donc son prix ? Comment installer des composants ML sur un réseau mobile, disposant de très peu de bande passante en utilisant des capacités de calcul distribuées parfois dégradées et sans s’appuyer sur une architecture centralisée ?

Ces questions, qui sont celles du déploiement de capacités d’apprentissage automatique en mode dégradé ou en mode low cost, conditionnent directement l’adoption des composantes ML à toute échelle et en tout lieu. Elles dessinent les contours d’une IA ubiquitaire, adaptative, totalement intégrée à l’environnement physique, d’accès simplifié et bon marché, disponible partout, tout le temps et pour tous.

L’Intelligence Artificielle Explicable (XAI)

En tant que premier vecteur de progrès attendu, l’Intelligence Artificielle Explicable ou XAI (Explainable Artificial Intelligence) constitue la prochaine grande étape du développement des techniques d’apprentissage automatique. L’XAI va permettre de dissiper le brouillard algorithmique qui opacifie le mode de fonctionnement de nombreuses plateformes d’apprentissage automatique. Ouvrant la voie à la traçabilité et à l’explicabilité d’un résultat produit par un composant ML, l’XAI répond aux problématiques rencontrées dans des domaines aussi variés que le transport, la sécurité, le secteur militaire – défense, la médecine, la finance ou le juridique…

Aujourd’hui, l’utilisateur de composants ML qui obtient un résultat après calculs, souhaiterait pouvoir interroger le système pour comprendre d’où vient ce résultat. Ses principales questions seraient :

  • Q1 Pourquoi fais-tu cela ?
  • Q2 Pourquoi ne pas appliquer une autre méthode ?
  • Q3 Quand ta méthode fonctionne-t-elle ?
  • Q4 Quand échoue-t-elle ?
  • Q5 Quand puis-je te faire confiance ?
  • Q6 Comment corriger une erreur ?

Notons que l’explicabilité existe déjà par construction sur certaines architectures (arbres de décisions, random forest classifier). Le défi est de doter tous les dispositifs ML de capacités d’explicabilités by design parfois par ajout de nouvelles composantes ou fonctionnalités de traçage.

L’agence américaine de recherche appliquée à la Défense DARPA  a lancé  en 2017 son programme XAI avec l’objectif de généraliser le développement de plateformes ML explicables et d’abandonner toutes celles qui n’offrent pas cette transparence1. Le programme DARPA XAI établit un lien direct entre explicabilité, sécurité, confiance et résilience des composants ML et présente le concept XAI à l’aide des figures suivantes :Figure 2 – Architectures ML actuelles et XAI

En utilisant une plateforme XAI, l’utilisateur obtient les réponses du système aux six questions d’explicabilité :

  • R1 : Je comprends pourquoi tu fais cela
  • R2 : Je comprends pourquoi tu ne fais pas cela
  • R3 : Je sais quand tu réussis
  • R4 : Je sais quand tu échoues
  • R5 : Je sais quand te faire confiance
  • R6 : Je sais pourquoi tu as fait fausse route

Favoriser le développement de plateformes d’IA explicable répond à trois exigences qui vont conditionner leur déploiement massif et leur adoption par l’utilisateur.

L’exigence de sécurité : l’utilisateur souhaite utiliser un outil qui ne soit pas détourné de ses fonctionnalités légitimes et qui préserve la sécurité de ses données personnelles.

L’exigence de confiance : l’utilisateur doit pouvoir accorder sa confiance à la plateforme, aux fonctions calculées et aux données de sortie qu’elle fournit.

L’exigence d’éthique : l’utilisateur attend d’une plateforme qu’elle assure un fonctionnement éthique et qu’elle s’interdise tout biais d’apprentissage

 

Figure 3 – Les apports de l’IA explicable

Le développement d’IA ubiquitaires et explicables marque une rupture importante dans l’histoire de l’intelligence artificielle. En répondant aux attentes de l’utilisateur, l’XAI participe à l’intégration de l’apprentissage automatique à l’espace physique tout en garantissant une forte lisibilité du mode de fonctionnement des plateformes. L’explicabilité engendre la confiance et permet d’éviter les biais analytiques. Elle favorise la sécurité et l’avènement d’IA éthiques, compatibles avec l’expertise humaine.

Article copublié sur le site NXU

Voir les commentaires (9)

Laisser un commentaire

Créer un compte Tous les commentaires (9)
  • Les journalistes qui sont ignorant et uniquement à la recherche du sensationnel, ne comprennent rien à l’IA, la présente plus avancée qu’elle ne l’est actuellement, et comme d’habitude sème la peur dans la population. En fait on ne peut en aucun cas la qualifier intelligente! Elle est à des années lumière de HAL.

    • Si tu essaye de leur expliquer que c’est du simple calcul matriciel, tu risques fort de les larguer en route 😉

    • Je croirai à l’intelligence artificielle le jour où l’une d’entre elles trouvera l’équivalent du Humphrey Gobart fièrement peint sur la carrosserie pour baptiser les navettes allant de la fac de Berkeley au « BART », le Bay Area Rapid Transit.

  • Je crois dès le départ qu’il ne faut pas confondre IA et Pythie. D’autre part, ces machines auront beaucoup de mal à faire des prévisions réalistes en dehors de leur domaine « d’apprentissage ». Seul le libre arbitre humain est apte à prendre une décision bonne ou non, ce n’est pas le problème le problème serait que l’humains s’appuient sur une machine comme les exploitants de la Pythie se servaient d’émanation de gaz (je précise pour les écolos, du gaz naturel).
    D’autre part, faute de faire marcher tous le êtres humains au pas et au sifflet (rêve de certains « gouvernants »), les aléa empêcherons toute prévision crédible.

    • Même au sein du domaine d’apprentissage, l’IA procède comme un mauvais scientifique qui développerait un modèle empirique, basé sur des moyennes et des médianes, à la rigueur sur des distributions gaussiennes, plutôt que de bâtir sur des principes sains et des validations expérimentales. L’IA serait très bien si elle libérait du temps de cerveau utilisé à des tâches simples et répétitives pour l’utiliser plutôt de manière astucieuse et innovante. Mais là, ce serait plutôt pour pouvoir regarder le foot à la télé…

  • Une machine pourra contrôler une autre machine sur son comportement. Un peu comme la Justice règle un problème entre les Hommes.
    Les Humains auraient-ils trouvé le moyen de limiter la puissance montante des machines ?

  • « Comment installer des composants ML sur un réseau mobile, disposant de très peu de bande passante en utilisant des capacités de calcul distribuées parfois dégradées et sans s’appuyer sur une architecture centralisée ? »

    La première réponse sera la 5G. L’auteur fait erreur en pensant que la bande passante est un problème. La 4G actuelle en fournit. Une vraie amélioration serait d’avoir une connexion stable et fiable, sans temps de latence, avec tenue de ligne en mouvement (voiture).

    Les applications pourraient être vraiment délocalisées avec une remontée d’informations vers les serveurs.

    Les assistants vocaux d’Apple ou de Microsoft se sont fait damer le pion par Amazon ou Google qui ont fait le pari de la puissance des serveurs centraux.
    Une meilleure fonctionnalité sera préférée à la performance d’un robot déconnecté.

    • Là, vous me faites marrer. Je suis dans mon garage la tablette sur les genoux, le webtrotteur sur la poubelle, parce que c’est le seul m^2 de ma propriété où il y a un peu de bande passante, et je serre les fesses chaque fois qu’une voiture passe de peur de perdre la connexion. Il y a plein de sites auxquels je ne peux pas accéder parce qu’ils ont été conçus par des inconscients qui croient qu’on a des Gbits/s partout. La bande passante est un problème, parce que c’est sa valeur minimale instantanée qui est déterminante, pas sa moyenne…

  • Les commentaires sont fermés.

Promouvoir la liberté n’est pas gratuit

Mais cela peut aider à réduire vos impôts de 66%

Faites un don dès maintenant

Faire un don

Par Vincent Martin, Université de Bordeaux et Christophe Gauld, Université Paris 1 Panthéon-Sorbonne. 

 

« Bonjour Monsieur. Je vous en prie, installez-vous. Alors… comment allez-vous depuis la dernière fois ? »

Et si, dans quelques années, cette phrase anodine n’était plus prononcée par un psychiatre en chair et en os mais par une IA, une Intelligence artificielle ? Avec la résurgence récente de la psychiatrie dans le débat public, notamment en raison de la crise sanitaire, l’idée de proposer des systèmes de suivi d... Poursuivre la lecture

Nous sommes à l’aube d’une nouvelle rupture technologique qui pourrait, à terme, bouleverser le marché de l’emploi. Le développement des solutions d’intelligence artificielle sur des pans entiers du marché de l’emploi aura des externalités positives indéniables, encore trop mal perçues des travailleurs.

Des transformations structurelles sans destruction massive

Selon le rapport de référence « Automatisation, numérisation et emploi » du Conseil d’orientation pour l’emploi (janvier 2017), moins de 10 % des emplois existants seront menacé... Poursuivre la lecture

Il y a une semaine, le Project Veritas publiait différents documents dont le contenu, s'il était vérifié, pourrait largement remettre en question nombre d'affirmations colportées par les médias, les experts et les politiciens sur la pandémie, son origine et son déroulement, et éclairerait l'histoire de ce virus d'une lumière nouvelle, particulièrement incriminante pour une partie de l'administration américaine...

Si vous vous en tenez à la presse et aux médias grand public français, il est assez peu probable que vous ayez entendu parle... Poursuivre la lecture

Voir plus d'articles