Machine Learning : le futur de l’IA est déjà là

L’intelligence artificielle a connu une vraie révolution au cours de la dernière décennie.

Partager sur:
Sauvegarder cet article
Aimer cet article 0

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Machine Learning : le futur de l’IA est déjà là

Publié le 1 avril 2019
- A +

Par Aurélien Chartier.

Le 27 mars dernier, trois chercheurs en informatique (dont le français Yann LeCun) ont reçu le prix Turing, l’équivalent pour leur domaine d’un prix Nobel. Peu médiatisé, ce prix vient récompenser leurs travaux dans le domaine de l’intelligence artificielle, qui a connu une vraie révolution au cours de la dernière décennie.

Mais reprenons cette histoire à son début. Le terme d’intelligence artificielle apparait en 1956 à la conférence de Dartmouth au New Hampshire. À la croisée des domaines de l’informatique, des mathématiques et de la psychologie, ce domaine a depuis nourri de nombreux fantasmes allant des plus utopiques (le projet Cybersyn au Chili) aux plus dystopiques (les films Terminator).

Dans les années 1980, les trois chercheurs précédemment cités vont développer une nouvelle technique d’apprentissage pour l’intelligence artificielle, basée sur des réseaux de neurones artificiels. Le principe est simple mais terriblement efficace : rassembler un énorme set de données sur un problème à résoudre et entraîner un réseau de neurones vierge sur ces données.

Un exemple typique est d’avoir un ensemble d’images contenant ou non un chat. On donne chaque image une par une au cerveau artificiel qui doit deviner s’il y a un chat ou non dans l’image. Au tout début, le réseau de neurones va se tromper très souvent. Mais au fur et à mesure de ses erreurs, il va ajuster le poids des différents chemins entre neurones pour améliorer ses prédictions.

Si les concepts mathématiques utilisés sont assez complexes, on voit que le principe est relativement simple et ressemble à vrai dire à l’apprentissage humain normal. Par exemple, un conducteur automobile novice aura du mal à associer un stimulus externe, tel qu’un feu rouge, à l’action qui lui est associée – appuyer sur la pédale de frein. Mais après un peu de pratique, ce type d’association devient un réflexe. En effet, notre cerveau apprend à faire la connexion entre le stimulus et l’action. Les réseaux de neurones artificiels fonctionnent sur le même principe.

Principal souci avec cette technique novatrice : le temps d’apprentissage très long qui empêche toute application pratique. Cette nouvelle découverte finit donc par retomber dans l’oubli. Jusqu’à la fin des années 2000, où la puissance de calcul des ordinateurs grandit brusquement. En particulier grâce à l’addition de cartes graphiques, très performantes pour le type d’opérations mathématiques nécessaires à la construction du cerveau artificiel.

Les réseaux de neurones reviennent brusquement sur le devant de la scène. La puissance de calcul désormais disponible permet de développer des réseaux de neurones beaucoup plus grands – donc efficaces, ce que l’on nomme l’apprentissage profond (deep learning en anglais).

Vers 2012, des chercheurs utilisant ces réseaux de neurones commencent à remporter des concours d’intelligence artificielle. Les grandes entreprises informatiques, mais également de nombreuses startups, se ruent vers ce nouvel eldorado. En effet, les applications potentielles sont immenses, allant de l’analyse de données médicales aux voitures sans conducteurs.

L’impact sur le marché de l’emploi américain se fait bientôt sentir. Entre 2015 et 2018, le nombre de nouveaux emplois d’ingénieurs machine learning a augmenté de 344 %. Salaire moyen de ces employés : plus de 140 000 dollars par an. Les domaines indirectement touchés voient aussi une hausse soutenue : les emplois de développeurs full-stack sont ainsi en hausse de 206 %. Si l’intelligence artificielle n’est pas l’unique facteur, elle contribue à la baisse spectaculaire du taux de chômage aux États-Unis, passant de 10 % en octobre 2010 à 3,8 % en février 2019.

Voir les commentaires (14)

Laisser un commentaire

Créer un compte Tous les commentaires (14)
  • « En particulier grâce à l’addition de cartes graphiques, »
    non les cartes « graphiques » ont pour finalité de gérer l’élaboration des images orientées vers un écran..
    on peut évidement comprendre que ceci soulage le CPU de la machine , mais je pense que ce qui est déterminant c’est l’apparition de mémoires de masse a accès rapide (SSD)
    car les moteurs d’inférences sont liés a la rapidité d’accès sur les bases de faits , les bases de regles et surtout les bases de connaissance

    • Non non. Les processeurs graphiques spécialisés ont la caractéristique de pouvoir faire des calculs vectoriels et sur des matrices de façon très rapide (ils sont conçus pour ça, le graphisme imposant ce genre de manipulations mathématiques). Cela tombe bien : beaucoup de moteurs d’IA (réseaux neuronaux multicouches) sont représentés par des matrices et des vecteurs, qui trouvent dans les GPU des calculateurs spécialisés parfaitement idoine. La mémoire est un aspect périphérique.

    • Les SSD on surtout changés les temps de latence à l’accès des données , mois les debits de transfert.
      D’ailleurs les datacenters évitent les SSD , qui coûtent trop cher au Go

      • C’était vrai il y a 5 ou 10 ans, mais vu les divisions de coûts électriques que ces SSD procurent, les centres de calcul s’équipent maintenant majoritairement avec des SSD.

      • Pas de tête de lecture qui atterrit sur un SSD. La fiabilité est bien largement augmentée, avantage supplémentaire.

    • Dans ce genre de domaine, il vaut mieux écouter H16, qui en connait un rayon. Il a parfaitement raison.

  • Si l’intelligence artificielle sait reconnaître un chat cela ne veut pas dire qu’elle equivaut a l’intelligence d’une souris !
    Doit on deja parler d’intelligence ? Je ne crois pas mais c’est bon pour avoir des financements.

  • Intelligence n’a pas exactement le même sens en anglais et en français, et on a l’impression que c’est encore un troisième en informatique. Il serait sans doute temps de sortir de l’ambiguïté, les réalisations en IA sont tout-à-fait admirables mais ne sont pas forcément le plus pour l’intelligence que beaucoup imaginent, plutôt une béquille pour les cerveaux paresseux…

  • Il faudrait parler d’intelligence augmentée plutôt que d’intelligence artificielle.
    L’IA n’a pas de capacité de créer, de sens critique, de concevoir l’infini.
    On étend seulement la faculté de copier dans des proportions importantes.

  • « les emplois de développeurs full-stack sont ainsi en hausse de 206 %. »

    Sur le marché français, ça ne risque pas d’arriver : on n’aime pas les gros salaires, et on n’aime pas les gens qui ne rentrent pas dans les petites cases.

    En France, on veut faire de la high-tech avec des « analystes-programmeurs » payés selon la grille de salaire en vigueur conformément aux conventions collectives. On peut bien nommer tous les ministricules qu’on voudra, on n’est pas près de prendre le train en marche …

  • La dernière phrase de l’article est surprenante, on annonce partout que la montée de l’AI s’accompagnera de destructions d’emplois peu ou pas compensé par la création de nouveaux métiers.
    Des sources ?

  • Depuis presque 50 ans, l’IA progresse tant bien que mal en compensant la pauvreté de ses algorithmes par l’accroissement de la puissance de calcul.
    Le « neuromimétisme » a toujours une convergence lamentable (issu du procédé backprop), tout comme les champions numériques d’échecs ou de go qui conquièrent par la force brute ce qu’ils n’obtiennent pas par la subtilité.
    Ces logiciels peuvent être utiles et efficaces mais « intelligents », franchement jusqu’à présent, non.

  • Difficile d’être bon partout, et en particulier excellent !
    Aurélien Chartier, vous pourriez vous pencher sur l’emploi aux USA et sur les statistiques ? sur les exclus du travail et des statistiques plus précisément. Ce qui n’infirme pas le fait que les emplois high-tech se développent très rapidement.

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Par Maurizio Filippone. Un article de The Conversation

Nous assistons actuellement à une accélération exponentielle de l’intégration de l’intelligence artificielle (IA) dans notre quotidien, par le biais des algorithmes qui gèrent machines et organisations. Cela pourrait se traduire par divers changements bénéfiques pour nos sociétés : économie, conditions de vie, éducation, bien-être et divertissements.

Un tel avenir positif est toutefois rendu problématique en raison d’obstacles liés à la confidentialité, à l’explicabilité des... Poursuivre la lecture

Par Karl Eychenne.

Acheter ou vendre un actif financier en fonction d’un mot, d’une intonation, voire d’un son. La finance a-t-elle encore un sens ? Le prix d’un actif reflète-t-il encore une réalité quelconque ? Qu’importe, semble nous dire la montée en puissance d’une branche du Machine Learning : NLP…

« Pour qui sont ces serpents qui sifflent sur vos têtes », pas besoin de comprendre le sens de la phrase pour entendre le sifflement des serpents dans la consomme « s » : c’est cela le cratylisme, lorsque le son n’a plus besoin ... Poursuivre la lecture

Par Marc Bidan. Un article de The Conversation

Il est très probable que plus jamais un humain ne pourra battre la machine au jeu de go. Ce jeu de conquête territoriale est d’une incroyable complexité et ses combinaisons dépassent le nombre d’atomes dans l’univers. La machine ne peut donc pas uniquement s’appuyer sur sa puissance de calcul – comme ce fut longtemps le cas aux jeux d’échecs ou de shogi, par exemple – pour balayer mécaniquement toutes les actions possibles et surclasser le cerveau humain. Il lui faut développer des stratég... Poursuivre la lecture

Voir plus d'articles