L’IA : nouveau paradigme scientifique dominant

Partager sur:
Sauvegarder cet article
Aimer cet article 0
Hal-9000 by hal_sk(CC BY 2.0)

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

L’IA : nouveau paradigme scientifique dominant

Publié le 4 février 2019
- A +

Par Sébastien Tran1.
Un article de The Conversation

Les innovations sont devenues de plus en plus fréquentes et sont à la base de la stratégie de nombreuses entreprises, notamment lorsqu’elles font face à des marchés à maturité. Néanmoins, il existe peu d’innovations « de rupture » et l’on se situe davantage dans un régime d’innovations « incrémentales ».

Bien que cette typologie soit restrictive, la problématique étant plus souvent une question de perception de l’innovation par les clients, elle suggère que certaines innovations dites « radicales » (Internet, le transistor, etc.) peuvent entraîner une série d’innovations en cascade qui affectent de nombreux secteurs et provoquent de nombreuses innovations d’offre, de processus, de modèle économique, et lancent un cycle de croissance.

L’IA peut être considérée comme une innovation qui va bouleverser notre vie professionnelle et personnelle.

Néanmoins, la diffusion des innovations, d’autant plus si elles sont radicales, est loin d’être un long fleuve tranquille. Cela passe notamment par une vision du monde et de ce qu’il doit être dans le futur au moment de leur conception qui peut durer plusieurs années, voire plusieurs décennies.

L’IA : d’abord une question de paradigme scientifique avant d’être une innovation

L’IA est un concept qui est apparu en 1956 avec John McCarthy, mais qui est issue d’un affrontement entre deux conceptions du monde (et donc deux manières de concevoir le fonctionnement « intelligent » des machines) depuis plusieurs dizaines d’années : l’IA symbolique et l’IA connexionniste. La première repose sur un paradigme cognitiviste, c’est-à-dire que l’IA repose sur des symboles qui ont une réalité matérielle et une valeur sémantique de représentation (on est dans le raisonnement formel et logique que l’on retrouve par exemple dans les moteurs de règles et systèmes experts). La seconde repose quant à elle sur un paradigme connexionniste, c’est-à-dire que l’IA s’apparente à un calcul massivement parallèle de fonctions élémentaires qui seront distribuées dans un réseau de neurones (on est dans des approches de type probabiliste).

Des équipes de recherche qui s’affrontent avec des visions différentes du monde

Ces deux approches de l’IA vont s’affronter dans les cercles scientifiques avec des figures emblématiques telles que Rumelhart, LeCun ou Hinton pour le paradigme connexionniste et McCarthy, Minsky ou Simon pour le paradigme symbolique.

Or, cet affrontement scientifique a des répercussions sur les orientations de recherche, les conceptions d’infrastructure de calculs, les financements mis à disposition, etc., mais surtout il va aussi inciter les chercheurs à modifier les fondements de chacune des deux approches scientifiques de l’IA (en termes de questionnement, de méthodes, d’objectifs, etc.). On assiste ainsi entre les années 1950 et 2000 à une véritable compétition entre les équipes de recherche, mais cela va bien au-delà des aspects scientifiques, il s’agit d’imposer une vision du monde et de son fonctionnement au travers de l’IA. Le lien avec la science-fiction peut facilement se faire avec l’IA qui a d’ailleurs été le thème de nombreux films et romans à forte notoriété (pour anecdote, Minsky fut invité par Stanley Kubrick en tant que consultant pour son film 2001 : l’odyssée de l’espace).

L’apport des avancées scientifiques dans les domaines connexes

L’IA ne pourrait exister sous sa forme actuelle sans les progrès considérables qui ont été réalisés dans l’informatique, notamment en ce qui concerne la puissance de calcul des ordinateurs, mais aussi l’accès à des bases de données de plus en plus fournies. Ces progrès dans l’informatique permettent à l’IA de s’appuyer sur l’apprentissage profond (deep learning) et d’améliorer ainsi les modèles de prédiction. L’autre effet combiné à l’augmentation des puissances de calcul est la diminution du coût des équipements qui permet dans les années 1980 par exemple de fabriquer des calculateurs très puissants avec des moyens raisonnables.

Cela n’est pas sans conséquence sur le fait que le paradigme connexionniste soit devenu dominant à partir des années 2000 grâce aux progrès réalisés dans les réseaux de neurones et le deep learning. Cela a aussi pour conséquence la nécessité de maîtriser des compétences en développement informatique sans égales par rapport aux précédentes expérimentations en matière d’IA.

Le rôle des États et le financement des expérimentations

Il ne saurait exister d’innovation radicale sans des processus d’expérimentation longs et coûteux que seuls les États peuvent se permettre de réaliser, notamment dans des domaines régaliens ou des activités économiques dites sensibles. Ce fut aussi le cas pour l’IA et ses deux paradigmes sous-jacents. Par exemple, le Perceptron est considéré comme la première machine de l’IA connexionniste. Il s’agissait à la fin des années 1950 d’un dispositif de reconnaissance d’image qui a obtenu un financement très important de la marine américaine.

Toutefois, les défenseurs du paradigme symbolique (Minsky, Simon, McCarthy, etc.), qui travaillent dans les plus grandes et prestigieuses universités américaines (MIT, Carnegie Mellon, Stanford notamment), vont également bénéficier de financements de l’ARPA et de l’AIR Force entre les années 1964 et 1974 au prétexte de pouvoir faire des avancées significatives dans le domaine militaire.

Or, quelles que soient les expérimentations menées par les défenseurs de chacun des deux paradigmes de l’IA, ces derniers sont très loin de tenir leurs promesses (traducteurs automatiques de textes russes, etc.). Cela est d’ailleurs accentué par le fait que quelques expérimentations ont été fortement médiatisées par certains chercheurs et qu’elles ont créées des attentes très fortes de certains organismes dans le domaine militaire telles que la DARPA.

Comme on peut le voir, afin de comprendre la philosophie des outils s’appuyant sur l’IA actuellement, il est important de comprendre son histoire car cette dernière est ponctuée de mouvements de balanciers entre deux paradigmes scientifiques (symbolique et connexionnisme) qu’il convient de contextualiser.

Sur le web-Article publié sous licence Creative Commons

  1. Directeur de l’École de Management Léonard de Vinci (EMLV), Pôle Léonard de Vinci – UGEI.
Voir le commentaire (1)

Laisser un commentaire

Créer un compte Tous les commentaires (1)

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Il faut sauver la liberté d’expression, comme nous l’avions évoqué, face à la prolifération des deepfakes en évoquant, avec le Dr Sylvie Blanco, Professor Senior Technology Innovation Management à Grenoble École de Management (GEM)  « le paradoxe du ChatBlanc » (cf. « Autopiégés par les deepfakes : où sont les bugs ? » Contrepoints, 11 février 2024 ) pris de vitesse, nous voilà mis devant ce terrible paradoxe : « réclamer en tant que citoyens la censure temporelle des hypertrucages pour préserver la liberté de penser et la liberté d’expressio... Poursuivre la lecture

1
Sauvegarder cet article

OpenAI, avec sa vision d'une IA géante et coûteuse, se retrouve face à des concurrents proposant des IA plus économiques.

OpenAI persiste et signe, pour le futur il faut une IA encore plus grosse que chatGPT-4. Son CEO, Sam Altman, réclame donc 50 milliards de dollars par an, après avoir déjà englouti 11 milliards dont 700 000 dollars par jour rien que pour les coûts des serveurs.

Le pape de l’IA est surtout de plus en plus seul dans sa vision d’IA gigantesque et coûteuse. La startup française Mistral a marqué le début d’une aut... Poursuivre la lecture

À quand des questions sur la recherche européenne dans les médias ? À quelques jours des élections européennes, les débats sur la recherche et l’innovation sont inexistants ! Il s’agit pourtant des fondamentaux européens. Dès 1972, la commission européenne a cherché à définir et à mettre en place une politique de recherche communautaire. Où en sommes-nous en 2024 ?

 

Des moyens et des résultats limités

Pourquoi la recherche est-elle absente des débats sur l’Europe, alors que partout ailleurs on parle des défis en matière d’... Poursuivre la lecture

Voir plus d'articles