Machine Learning : le futur de l’IA est déjà là

L’intelligence artificielle a connu une vraie révolution au cours de la dernière décennie.

Par Aurélien Chartier.

Le 27 mars dernier, trois chercheurs en informatique (dont le français Yann LeCun) ont reçu le prix Turing, l’équivalent pour leur domaine d’un prix Nobel. Peu médiatisé, ce prix vient récompenser leurs travaux dans le domaine de l’intelligence artificielle, qui a connu une vraie révolution au cours de la dernière décennie.

Mais reprenons cette histoire à son début. Le terme d’intelligence artificielle apparait en 1956 à la conférence de Dartmouth au New Hampshire. À la croisée des domaines de l’informatique, des mathématiques et de la psychologie, ce domaine a depuis nourri de nombreux fantasmes allant des plus utopiques (le projet Cybersyn au Chili) aux plus dystopiques (les films Terminator).

Dans les années 1980, les trois chercheurs précédemment cités vont développer une nouvelle technique d’apprentissage pour l’intelligence artificielle, basée sur des réseaux de neurones artificiels. Le principe est simple mais terriblement efficace : rassembler un énorme set de données sur un problème à résoudre et entraîner un réseau de neurones vierge sur ces données.

Un exemple typique est d’avoir un ensemble d’images contenant ou non un chat. On donne chaque image une par une au cerveau artificiel qui doit deviner s’il y a un chat ou non dans l’image. Au tout début, le réseau de neurones va se tromper très souvent. Mais au fur et à mesure de ses erreurs, il va ajuster le poids des différents chemins entre neurones pour améliorer ses prédictions.

Si les concepts mathématiques utilisés sont assez complexes, on voit que le principe est relativement simple et ressemble à vrai dire à l’apprentissage humain normal. Par exemple, un conducteur automobile novice aura du mal à associer un stimulus externe, tel qu’un feu rouge, à l’action qui lui est associée – appuyer sur la pédale de frein. Mais après un peu de pratique, ce type d’association devient un réflexe. En effet, notre cerveau apprend à faire la connexion entre le stimulus et l’action. Les réseaux de neurones artificiels fonctionnent sur le même principe.

Principal souci avec cette technique novatrice : le temps d’apprentissage très long qui empêche toute application pratique. Cette nouvelle découverte finit donc par retomber dans l’oubli. Jusqu’à la fin des années 2000, où la puissance de calcul des ordinateurs grandit brusquement. En particulier grâce à l’addition de cartes graphiques, très performantes pour le type d’opérations mathématiques nécessaires à la construction du cerveau artificiel.

Les réseaux de neurones reviennent brusquement sur le devant de la scène. La puissance de calcul désormais disponible permet de développer des réseaux de neurones beaucoup plus grands – donc efficaces, ce que l’on nomme l’apprentissage profond (deep learning en anglais).

Vers 2012, des chercheurs utilisant ces réseaux de neurones commencent à remporter des concours d’intelligence artificielle. Les grandes entreprises informatiques, mais également de nombreuses startups, se ruent vers ce nouvel eldorado. En effet, les applications potentielles sont immenses, allant de l’analyse de données médicales aux voitures sans conducteurs.

L’impact sur le marché de l’emploi américain se fait bientôt sentir. Entre 2015 et 2018, le nombre de nouveaux emplois d’ingénieurs machine learning a augmenté de 344 %. Salaire moyen de ces employés : plus de 140 000 dollars par an. Les domaines indirectement touchés voient aussi une hausse soutenue : les emplois de développeurs full-stack sont ainsi en hausse de 206 %. Si l’intelligence artificielle n’est pas l’unique facteur, elle contribue à la baisse spectaculaire du taux de chômage aux États-Unis, passant de 10 % en octobre 2010 à 3,8 % en février 2019.