La montée en puissance des réseaux de neurones artificiels – réseaux neuronaux – et leur intégration dans les machines et robots marque le top départ du deep learning et de ses réussites, échecs et questionnements.
Intelligence artificielle : les défis de l’apprentissage profond
Publié le 27 avril 2019
-A+
Par Marc Bidan. Un article de The Conversation
Il est très probable que plus jamais un humain ne pourra battre la machine au jeu de go. Ce jeu de conquête territoriale est d’une incroyable complexité et ses combinaisons dépassent le nombre d’atomes dans l’univers. La machine ne peut donc pas uniquement s’appuyer sur sa puissance de calcul – comme ce fut longtemps le cas aux jeux d’échecs ou de shogi, par exemple – pour balayer mécaniquement toutes les actions possibles et surclasser le cerveau humain. Il lui faut développer des stratégies et donc apprendre à apprendre : on parle alors d’« apprentissage profond » (deep learning).
L’apprentissage profond peut être assimilé à un type d’intelligence artificielle. C’est un sous-ensemble – ou une évolution – de ce qui est nommé plus généralement « l’apprentissage automatique » (machine learning) et qui concerne l’identification, l’analyse et le renforcement des capacités d’apprentissage de la machine avec ou sans l’aide des humains.
Du machine learning au reinforcing learning
Quand l’humain affronte la machine dans le cadre d’un jeu de stratégie (et non pas de hasard), la première de ces machines infernales est en droite ligne avec les travaux d’Alan Turing et sa learning machine des années 1950. Il s’agit d’être capable d’apprentissage et surtout de s’améliorer sans intervention humaine pour pouvoir battre un joueur de bon niveau.
Ainsi, le 11 mai 1997, Deep Blue est la première machine capable de battre le champion d’échec de l’époque, Garry Kasparov, dans le cadre d’une partie d’échecs humain/machine légendaire.
Cette machine avait en sa faveur les capacités de connaître les règles, de posséder des milliers de parties en mémoire et de disposer d’algorithmes de calculs et de prédictions très puissants.
La stratégie de Deep Blue avant de déplacer une pièce était :
de balayer un nombre gigantesque de coups possibles jouables en de telles situations à ce moment-là de la partie ;
de comparer avec sa banque de données de parties préalablement enregistrées ;
de choisir le coup ayant le plus de chances de la mener à la victoire (c’est-à-dire celui où le compétiteur l’ayant déployé a finalement gagné la partie).
Cet apprentissage de la machine est néanmoins encore de type machine learning mais pour affronter les grands maîtres du jeu de go, les réseaux neuronaux sont en embuscades !
En 2016, l’apprentissage de type deep learning s’imposa au travers de l’expérience AlphaGo-Lee développée par DeepMind, une filiale d’Alphabet, la maison-mère de Google. Cette machine est en effet la première à avoir battu un grand maître du jeu de go en la personne du sud-coréen Lee Sedol. Mais même si elle était déjà basée sur deux réseaux neuronaux (l’un pour décider quoi jouer et l’autre pour évaluer les conséquences de cette décision), elle a toutefois eu besoin préalablement des humains, et de leurs parties enregistrées et ingérées, pour devenir elle-même inaccessible aux compétiteurs humains.
Plus récemment encore est apparu l’apprentissage de type « reinforcing learning » (ou tabula rasa) via AlphaGo-Zero toujours développée par DeepMind. Cette machine est adossée à un seul réseau neuronal et peut s’affranchir des parties et supervisions humaines. Il s’agit simplement d’informer la machine sur les règles du jeu de go puis de la laisser apprendre toute seule à partir d’une page blanche ! Ce qui est impressionnant dans cette expérimentation c’est que AlphaGo-Zero a spectaculairement battu AlphaGo-Lee par 100 victoires à zéro après seulement trois journées d’apprentissage renforcé. La technique est logique, il va s’agir de faire jouer les machines entre elles pour les forcer à se nourrir de leur propre puissance de calcul et de leur propre stratégie d’apprentissage.
Ainsi, il semble clair que le cerveau humain singé par la machine (réseaux neuronaux) et dépassé par ses capacités de calculs et d’analyse (algorithmique) ne pourra plus jamais la battre… du moins si la machine comprend et assimile clairement les règles du jeu !
À ce propos, il est intéressant de noter l’échec récent de Deep Mind dans le cadre d’un contrôle de mathématique (algèbre) assez basique. Cet échec révèle la difficulté actuelle, pour une IA aussi puissante soit-elle, de comprendre des questions qui articulent simultanément des symboles, du texte et des fonctions telles que : « quelle est la somme de 1+1+1+1+1+1+1 ? ».
Du deep learning et des réseaux neuronaux
La montée en puissance des réseaux de neurones artificiels – réseaux neuronaux – et leur intégration dans les machines et robots marque le top départ du deep learning et de ses réussites, échecs et questionnements.
Les réseaux de neurones artificiels sont largement inspirés par les réseaux de neurones du cerveau humain et plus il y aura de neurones artificiels en activité et plus le réseau – structuré par couches superposées (30 couches pour Google Photo) – sera profond. Toutefois, à la place d’un signal électrique voyageant de neurone en neurone pour les exciter ou les inhiber, le réseau va affecter une certaine pondération aux neurones et ainsi il va leur donner plus ou moins d’importance dans la décision finale en fin de processus. Généralement les premières couches se concentrent sur les principales caractéristiques, les couches intermédiaires sur les spécifications et les dernières couchent sur les détails.
Il est plus facile pour une machine de jouer au jeu de GO que de répondre à une question de maths de 6e. Et plus facile de répondre à une question de maths de 6e que de conduire une voiture.
Dans le premier cas, la question de maths suppose la maîtrise du langage que possède un enfant mais pas une machine. Dans le second cas, la conduite d’une automobile suppose la responsabilité sociale que ne possèdent ni une machine, ni un enfant – qui n’a pas plus le droit de conduire.
En fait, il faudrait non pas un super réseau de neurones, mais des centaines de milliers de réseaux de neurones pour effectuer ces tâches. La machine doit intégrer toute notre expérience sociale pour être vraiment performante. Ce constat qui me semble pourtant facile à établir semble échapper totalement aux futurologues (normal), aux politiques (inquiétant) et aux investisseurs (lamentable).
Pour être performante, la machine devrait être capable de tirer des enseignements de ce qu’elle a appris, et d’en extrapoler elle-même des principes et des méthodes pour s’améliorer. Ce qui serait tellement lent et coûteux qu’il vaut mieux laisser la machine seulement assister l’humain.
Aimeriez-vous mettre un jour une IA à la tête des pompiers de Paris ?
Pfff article très moyen…
Tellement d’inexactitudes et de simplifications….
« Plus récemment encore est apparu l’apprentissage de type « reinforcing learning »
Tellement récent que c’est apparu il y a 40 ans….
« Le premier est celui lié à l’énergie et à l’épuisement des ressources nécessaires à son bon fonctionnement »
Hops un petit coup de malthusianisme en passant…
Ce vendredi 2 février, les États membres ont unanimement approuvé le AI Act ou Loi sur l’IA, après une procédure longue et mouvementée. En tant que tout premier cadre législatif international et contraignant sur l’IA, le texte fait beaucoup parler de lui.
La commercialisation de l’IA générative a apporté son lot d’inquiétudes, notamment en matière d’atteintes aux droits fondamentaux.
Ainsi, une course à la règlementation de l’IA, dont l’issue pourrait réajuster certains rapports de force, fait rage. Parfois critiquée pour son ap...
Poursuivre la lecture
Voilà maintenant quatre ans que le Royaume-Uni a officiellement quitté l'Union européenne. Depuis le Brexit, la Grande-Bretagne a connu trois Premiers ministres, et d'innombrables crises gouvernementales. Néanmoins, malgré le chaos de Westminster, nous pouvons déjà constater à quel point les régulateurs du Royaume-Uni et de l'Union européenne perçoivent différemment l'industrie technologique. Le Royaume-Uni est un pays mitigé, avec quelques signes encourageants qui émergent pour les amateurs de liberté et d'innovation. L'Union européenne, qua...
Poursuivre la lecture
It has been four years since the UK formally left the European Union. Since Brexit, Britain has been through three prime ministers and countless government crises. Nonetheless, despite the chaos of Westminster, it is already becoming clear how differently regulators in the UK and EU view the technology industry. The UK is a mixed bag, with some encouraging signs emerging for fans of freedom and innovation. The EU, meanwhile, is pursuing a path of aggressive antitrust regulation on various fronts.
Il est plus facile pour une machine de jouer au jeu de GO que de répondre à une question de maths de 6e. Et plus facile de répondre à une question de maths de 6e que de conduire une voiture.
Dans le premier cas, la question de maths suppose la maîtrise du langage que possède un enfant mais pas une machine. Dans le second cas, la conduite d’une automobile suppose la responsabilité sociale que ne possèdent ni une machine, ni un enfant – qui n’a pas plus le droit de conduire.
En fait, il faudrait non pas un super réseau de neurones, mais des centaines de milliers de réseaux de neurones pour effectuer ces tâches. La machine doit intégrer toute notre expérience sociale pour être vraiment performante. Ce constat qui me semble pourtant facile à établir semble échapper totalement aux futurologues (normal), aux politiques (inquiétant) et aux investisseurs (lamentable).
Pour être performante, la machine devrait être capable de tirer des enseignements de ce qu’elle a appris, et d’en extrapoler elle-même des principes et des méthodes pour s’améliorer. Ce qui serait tellement lent et coûteux qu’il vaut mieux laisser la machine seulement assister l’humain.
Aimeriez-vous mettre un jour une IA à la tête des pompiers de Paris ?
Pfff article très moyen…
Tellement d’inexactitudes et de simplifications….
« Plus récemment encore est apparu l’apprentissage de type « reinforcing learning »
Tellement récent que c’est apparu il y a 40 ans….
« Le premier est celui lié à l’énergie et à l’épuisement des ressources nécessaires à son bon fonctionnement »
Hops un petit coup de malthusianisme en passant…
Les commentaires sont fermés.