Vers une intelligence artificielle ubiquitaire explicable

Le développement d’IA ubiquitaires et explicables marque une rupture importante dans l’histoire de l’intelligence artificielle.

Partager sur:
Sauvegarder cet article
Aimer cet article 0

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Vers une intelligence artificielle ubiquitaire explicable

Publié le 10 juillet 2018
- A +

Par Thierry Berthier.

Il ne se passe plus une semaine sans que la presse ne rapporte les derniers progrès de l’intelligence artificielle ou ne mette en lumière des défis qu’elle s’apprête à relever. Certains articles publiés ont d’ailleurs parfois tendance à prêter plus de capacités à l’IA qu’elle n’en possède réellement, oubliant ainsi que l’état de l’art de l’IA est confronté à la complexité algorithmique des éléments.

Cela dit, la montée en puissance des techniques d’apprentissage automatique transforme en profondeur notre façon d’envisager le calcul, de construire des prévisions, de produire de l’aide à la décision, ou d’installer de l’autonomie dans les systèmes.

Nous ne nous situons qu’au tout début de l’histoire de l’IA et de cette ère de Turing qui trouve son origine dans les années 1950. Tout reste à faire ou presque pour déployer massivement des composants de Machine Learning (ML) qui rendront « intelligents »  les objets de notre environnement et engendreront une intelligence artificielle ubiquitaire et explicable, accessible à tous, partout, tout le temps.

Les six défis de l’apprentissage automatique

La figure suivante représente les six principaux vecteurs de progrès attendus dans le domaine de l’apprentissage automatique qui permettront de déployer des IA ubiquitaires explicables.

Figure 1 – Six vecteurs de progrès en Machine Learning

En réduisant les délais de mise en production des plateformes et les coûts de déploiement, les vecteurs de progrès 2, 3 et 4 vont rendre les composants ML de plus en plus performants et vont accélérer leur adoption dans l’ensemble des secteurs concernés, industriels, économiques, financiers et militaires. En abaissant la limite des volumes minimaux de données d’entrainement, l’apprentissage automatique adressera de nouveaux problèmes sur lesquels il demeure inopérant aujourd’hui faute de données suffisantes.

Le sixième vecteur de progrès s’applique à la cybersécurité des composants de Machine Learning. Les attaques par exemples contradictoires ou par orientation et influence de la phase d’entrainement d’une plateforme ML ont prouvé (en 2016) la vulnérabilité de ces architectures. Apporter de la sécurité « by design » à un composant ML contribuera à rendre résilient l’ensemble du système qui l’exploite.

Plus disruptifs encore, les vecteurs de progrès 1 et 5 donneront l’accès à de nouveaux domaines d’application et de développement pour les technologies du Machine Learning.

Le déploiement local de composants ML induit des problématiques d’optimisation des puissances de calcul et de stockage disponibles sur une architecture donnée, de compatibilité et d’intégration de ces composants à l’ensemble des systèmes, petits et grands. Comment en effet doter un simple objet connecté, commercialisé quelques euros, de capacités d’apprentissage sans augmenter sa puissance de calcul, ses capacités de stockage, de communication et donc son prix ? Comment installer des composants ML sur un réseau mobile, disposant de très peu de bande passante en utilisant des capacités de calcul distribuées parfois dégradées et sans s’appuyer sur une architecture centralisée ?

Ces questions, qui sont celles du déploiement de capacités d’apprentissage automatique en mode dégradé ou en mode low cost, conditionnent directement l’adoption des composantes ML à toute échelle et en tout lieu. Elles dessinent les contours d’une IA ubiquitaire, adaptative, totalement intégrée à l’environnement physique, d’accès simplifié et bon marché, disponible partout, tout le temps et pour tous.

L’Intelligence Artificielle Explicable (XAI)

En tant que premier vecteur de progrès attendu, l’Intelligence Artificielle Explicable ou XAI (Explainable Artificial Intelligence) constitue la prochaine grande étape du développement des techniques d’apprentissage automatique. L’XAI va permettre de dissiper le brouillard algorithmique qui opacifie le mode de fonctionnement de nombreuses plateformes d’apprentissage automatique. Ouvrant la voie à la traçabilité et à l’explicabilité d’un résultat produit par un composant ML, l’XAI répond aux problématiques rencontrées dans des domaines aussi variés que le transport, la sécurité, le secteur militaire – défense, la médecine, la finance ou le juridique…

Aujourd’hui, l’utilisateur de composants ML qui obtient un résultat après calculs, souhaiterait pouvoir interroger le système pour comprendre d’où vient ce résultat. Ses principales questions seraient :

  • Q1 Pourquoi fais-tu cela ?
  • Q2 Pourquoi ne pas appliquer une autre méthode ?
  • Q3 Quand ta méthode fonctionne-t-elle ?
  • Q4 Quand échoue-t-elle ?
  • Q5 Quand puis-je te faire confiance ?
  • Q6 Comment corriger une erreur ?

Notons que l’explicabilité existe déjà par construction sur certaines architectures (arbres de décisions, random forest classifier). Le défi est de doter tous les dispositifs ML de capacités d’explicabilités by design parfois par ajout de nouvelles composantes ou fonctionnalités de traçage.

L’agence américaine de recherche appliquée à la Défense DARPA  a lancé  en 2017 son programme XAI avec l’objectif de généraliser le développement de plateformes ML explicables et d’abandonner toutes celles qui n’offrent pas cette transparence1. Le programme DARPA XAI établit un lien direct entre explicabilité, sécurité, confiance et résilience des composants ML et présente le concept XAI à l’aide des figures suivantes :Figure 2 – Architectures ML actuelles et XAI

En utilisant une plateforme XAI, l’utilisateur obtient les réponses du système aux six questions d’explicabilité :

  • R1 : Je comprends pourquoi tu fais cela
  • R2 : Je comprends pourquoi tu ne fais pas cela
  • R3 : Je sais quand tu réussis
  • R4 : Je sais quand tu échoues
  • R5 : Je sais quand te faire confiance
  • R6 : Je sais pourquoi tu as fait fausse route

Favoriser le développement de plateformes d’IA explicable répond à trois exigences qui vont conditionner leur déploiement massif et leur adoption par l’utilisateur.

L’exigence de sécurité : l’utilisateur souhaite utiliser un outil qui ne soit pas détourné de ses fonctionnalités légitimes et qui préserve la sécurité de ses données personnelles.

L’exigence de confiance : l’utilisateur doit pouvoir accorder sa confiance à la plateforme, aux fonctions calculées et aux données de sortie qu’elle fournit.

L’exigence d’éthique : l’utilisateur attend d’une plateforme qu’elle assure un fonctionnement éthique et qu’elle s’interdise tout biais d’apprentissage

 

Figure 3 – Les apports de l’IA explicable

Le développement d’IA ubiquitaires et explicables marque une rupture importante dans l’histoire de l’intelligence artificielle. En répondant aux attentes de l’utilisateur, l’XAI participe à l’intégration de l’apprentissage automatique à l’espace physique tout en garantissant une forte lisibilité du mode de fonctionnement des plateformes. L’explicabilité engendre la confiance et permet d’éviter les biais analytiques. Elle favorise la sécurité et l’avènement d’IA éthiques, compatibles avec l’expertise humaine.

Article copublié sur le site NXU

Voir les commentaires (9)

Laisser un commentaire

Créer un compte Tous les commentaires (9)
  • Les journalistes qui sont ignorant et uniquement à la recherche du sensationnel, ne comprennent rien à l’IA, la présente plus avancée qu’elle ne l’est actuellement, et comme d’habitude sème la peur dans la population. En fait on ne peut en aucun cas la qualifier intelligente! Elle est à des années lumière de HAL.

    • Si tu essaye de leur expliquer que c’est du simple calcul matriciel, tu risques fort de les larguer en route 😉

    • Je croirai à l’intelligence artificielle le jour où l’une d’entre elles trouvera l’équivalent du Humphrey Gobart fièrement peint sur la carrosserie pour baptiser les navettes allant de la fac de Berkeley au « BART », le Bay Area Rapid Transit.

  • Je crois dès le départ qu’il ne faut pas confondre IA et Pythie. D’autre part, ces machines auront beaucoup de mal à faire des prévisions réalistes en dehors de leur domaine « d’apprentissage ». Seul le libre arbitre humain est apte à prendre une décision bonne ou non, ce n’est pas le problème le problème serait que l’humains s’appuient sur une machine comme les exploitants de la Pythie se servaient d’émanation de gaz (je précise pour les écolos, du gaz naturel).
    D’autre part, faute de faire marcher tous le êtres humains au pas et au sifflet (rêve de certains « gouvernants »), les aléa empêcherons toute prévision crédible.

    • Même au sein du domaine d’apprentissage, l’IA procède comme un mauvais scientifique qui développerait un modèle empirique, basé sur des moyennes et des médianes, à la rigueur sur des distributions gaussiennes, plutôt que de bâtir sur des principes sains et des validations expérimentales. L’IA serait très bien si elle libérait du temps de cerveau utilisé à des tâches simples et répétitives pour l’utiliser plutôt de manière astucieuse et innovante. Mais là, ce serait plutôt pour pouvoir regarder le foot à la télé…

  • Une machine pourra contrôler une autre machine sur son comportement. Un peu comme la Justice règle un problème entre les Hommes.
    Les Humains auraient-ils trouvé le moyen de limiter la puissance montante des machines ?

  • « Comment installer des composants ML sur un réseau mobile, disposant de très peu de bande passante en utilisant des capacités de calcul distribuées parfois dégradées et sans s’appuyer sur une architecture centralisée ? »

    La première réponse sera la 5G. L’auteur fait erreur en pensant que la bande passante est un problème. La 4G actuelle en fournit. Une vraie amélioration serait d’avoir une connexion stable et fiable, sans temps de latence, avec tenue de ligne en mouvement (voiture).

    Les applications pourraient être vraiment délocalisées avec une remontée d’informations vers les serveurs.

    Les assistants vocaux d’Apple ou de Microsoft se sont fait damer le pion par Amazon ou Google qui ont fait le pari de la puissance des serveurs centraux.
    Une meilleure fonctionnalité sera préférée à la performance d’un robot déconnecté.

    • Là, vous me faites marrer. Je suis dans mon garage la tablette sur les genoux, le webtrotteur sur la poubelle, parce que c’est le seul m^2 de ma propriété où il y a un peu de bande passante, et je serre les fesses chaque fois qu’une voiture passe de peur de perdre la connexion. Il y a plein de sites auxquels je ne peux pas accéder parce qu’ils ont été conçus par des inconscients qui croient qu’on a des Gbits/s partout. La bande passante est un problème, parce que c’est sa valeur minimale instantanée qui est déterminante, pas sa moyenne…

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Ce vendredi 2 février, les États membres ont unanimement approuvé le AI Act ou Loi sur l’IA, après une procédure longue et mouvementée. En tant que tout premier cadre législatif international et contraignant sur l’IA, le texte fait beaucoup parler de lui.

La commercialisation de l’IA générative a apporté son lot d’inquiétudes, notamment en matière d’atteintes aux droits fondamentaux.

Ainsi, une course à la règlementation de l’IA, dont l’issue pourrait réajuster certains rapports de force, fait rage. Parfois critiquée pour son ap... Poursuivre la lecture

Voilà maintenant quatre ans que le Royaume-Uni a officiellement quitté l'Union européenne. Depuis le Brexit, la Grande-Bretagne a connu trois Premiers ministres, et d'innombrables crises gouvernementales. Néanmoins, malgré le chaos de Westminster, nous pouvons déjà constater à quel point les régulateurs du Royaume-Uni et de l'Union européenne perçoivent différemment l'industrie technologique. Le Royaume-Uni est un pays mitigé, avec quelques signes encourageants qui émergent pour les amateurs de liberté et d'innovation. L'Union européenne, qua... Poursuivre la lecture

Année après année, mesure après mesure, étape par étape, technologie après technologie, le fisc augmente son pouvoir, sa surface de jeu, et son « efficacité » de collecte pour l’État, toujours en manque d’argent.

 

Le prélèvement à la source de l'impôt sur le revenu

Souvenons-nous du prélèvement automatique des impôts sur le revenu, une mission dont l’ambitieux Gérald Darmannin s’est brillamment acquitté, confortant ainsi l’État dans son assurance d’être payé, dans le coût de sa collecte (maintenant déléguée aux employeurs qu’... Poursuivre la lecture

Voir plus d'articles