La communication comme facteur déterminant de l’évolution (2)

Machine Learning & Artificial Intelligence by Mike MacKenzie (CC BY 2.0) — Mike MacKenzie, CC-BY

Le développement des transmissions – telles que la 5G – et la collecte de données en masse par les futurs objets connectés seront des accélérateurs de connaissances et donc de croissance du savoir.

Par Philippe Mösching.

Dans la première partie de cet article, nous avons vu qu’en permettant la diffusion et la transmission des connaissances les outils de communication sont devenus les puissants moteurs du progrès.

Les grandes innovations sont souvent en rapport avec la communication : l’écriture, l’imprimerie, le téléphone, Internet, les réseaux sans fil. À partir de cette vision du progrès, nous pouvons extrapoler et imaginer les évolutions possibles.

Le langage naturel exprime de la connaissance

Détaillons le processus de communication entre deux personnes en le décomposant en cinq étapes :

  1. La modélisation : une personne transforme mentalement son message en un formalisme communément interprétable, le plus souvent en langage naturel.
  2. La matérialisation : à l’aide d’un clavier, d’un stylo, ou d’un micro le message est matérialisé.
  3. La transmission : par internet pour un email, par la poste pour une lettre, ou par le réseau GSM pour la voix.
  4. La restitution : le message transmis est restitué sous une forme interprétable via un écran, un haut-parleur, etc.
  5. L’interprétation : le destinataire lit ou écoute le message et l’intègre dans son cerveau.

L’histoire des sciences montre que nous avons particulièrement développé l’étape de transport de l’information. En revanche, si l’on s’intéresse à l’étape de modélisation, qui consiste à traduire une idée en quelque chose de communicable et compréhensible, on constate qu’elle se fera le plus souvent en langage naturel, et ceci depuis plus de 5000 ans.

En d’autres termes, toute connaissance s’exprime par des mots, et seuls les mots expriment des connaissances.

Certes, des représentations graphiques viennent compléter le langage : plans, cartes, graphiques, équations mathématiques, ou représentation gestuelle, mais l’essentiel reste exprimé en langage naturel, comme l’article que vous lisez en ce moment !

La connaissance scientifique également s’exprime en langage naturel, sous forme d’articles ou de livres.

La diffusion des idées, des philosophies, des religions se fait également en langage naturel écrit ou parlé : livres, dictionnaires, encyclopédies, articles, conférences, cours, débats. Bien que les supports soient aujourd’hui dématérialisés, les contenus restent exprimés en langage naturel.

Et quand l’expression populaire dit qu’une image vaut mille mots, ce peut en effet être une forme efficace dans certains cas – par exemple un plan – mais cela reste une exception ou un support.

Les films et les documentaires sont à présent des formes d’expression importantes et influentes, mais à nouveau leur contenu est essentiellement du langage naturel parlé, agrémenté d’images qui soutiennent le propos sans être le propos lui-même.

Des formes alternatives

L’informatique, en tant que science de l’information, étudie la formalisation de la connaissance et apporte des moyens d’expressions alternatifs. Ceux-ci se sont longtemps résumés à la modélisation de données plutôt que de connaissances ; les bases de données en sont l’exemple typique.

Les langages informatiques représentent une forme de représentation formelle de connaissances à destination de machines qui les interprètent de manière automatique.

On ne peut pas encore parler de réelles connaissances, mais plutôt de séries d’instructions.

Plus récemment, les réseaux neuronaux – à la base du deep learning – proposent un moyen original et prometteur de stockage des connaissances. Sans qu’on puisse lire explicitement leur contenu, ils se montrent très efficaces pour fournir des réponses cohérentes à des sollicitations, pour peu qu’on les ait suffisamment entraînés.

À n’en pas douter, la modélisation des connaissances est un champ d’études pouvant déboucher sur des avancées très significatives, permettant une meilleure diffusion des connaissances et une exploitation automatisée.

C’est le cœur des recherches en Intelligence Artificielle.

Le frein humain

La qualité de la communication dépend de la qualité d’expression initiale et de la faculté du destinataire à la comprendre.

Ces deux contraintes très humaines se présentent comme des freins à la diffusion et à l’exploitation du savoir.

Un exemple du monde de l’entreprise montre que même avec les derniers outils de communication, la collaboration à distance n’est pas fluide. Ou plutôt, elle fonctionne correctement lorsque les échanges sont très cadrés et très structurés et donc très simples.

Par exemple, si je passe une commande par Internet ou si j’instruis un transfert bancaire.

En revanche s’il s’agit de collaborer à distance sur des sujets complexes pour lesquels il n’existe pas de structuration formelle, alors les difficultés arrivent du fait de la difficulté à exprimer une idée et la faire comprendre.

Tous ceux qui ont vécu la ségrégation des responsabilités en entreprise ou la délocalisation de services complexes savent de quoi je parle, et ce n’est pas l’envoi de mails ou les visio-conférences qui suffisent à combler la distance. Des problèmes peuvent surgir de la difficulté à exprimer une idée ou un besoin complexe par le langage naturel manquant de rigueur et sujet à interprétation.

Certes des outils de modélisation existent, mais sont souvent lourds, complexes et insuffisants avec le risque même d’étouffer le sujet.

L’interface homme-machine

Une autre approche, anthropocentrique cette fois, est l’étude du cerveau humain et les possibilités de lire directement les pensées.

Cela permettra de s’affranchir de l’étape du langage naturel en allant directement extraire l’information chez le sujet. Mais cela suppose de comprendre comment se forme la pensée dans le cerveau. Beaucoup de progrès seront encore nécessaires pour obtenir des résultats probants.

Cette approche sera toutefois limitée à traiter la connaissance tel que l’Homme la conçoit, alors que la connaissance peut s’imaginer au-delà de ce qu’il peut appréhender.

Cela sera néanmoins une voie prometteuse pour permettre aux Hommes d’interagir de manière plus fluide avec les systèmes informatiques en fournissant une interface homme-machine.

La donnée qui remplace la connaissance

L’exemple des réseaux neuronaux montre qu’il possible de modéliser de la connaissance uniquement à partir de données d’exemple.

On stocke de la connaissance à partir de données, puis on exploite ce stock pour en tirer des affirmations concrètes : reconnaissance vocale, faciale, prévision, conduite automatique, etc.

Pour la première fois, on aborde la question de la connaissance sans passer par la modélisation. On quitte ainsi la démarche scientifique telle qu’on la pratique depuis Galilée qui veut qu’on réduise un phénomène à une théorie concise.

Certains n’hésitent pas à penser que la réduction à une théorie exprimée en peu de signes est une marque d’esthétique et qu’il existe un lien entre la concision et la pertinence d’une théorie.

La démarche scientifique veut ensuite que la théorie soit confrontée à l’expérience en vue de la valider ou de la réfuter. Cette approche se justifiait lorsque l’imagination était fertile et la donnée rare et précieuse.

À présent, l’imagination humaine montre ses limites et, a contrario, la donnée se collecte en masse. Des outils comme les réseaux neuronaux permettent d’exploiter cette masse de données, sans modélisation ni réflexion humaine, pour en tirer des prévisions comme le ferait une théorie classique.

On remarquera que la science classique a permis des réductions très fortes jusqu’à 1915 : l’électromagnétisme tient en quatre équations dont la plus longue contient 8 termes, la mécanique newtonienne en trois équations avec 5 termes pour la plus longue, la relativité restreinte à donner la fameuse équation E=mC² – 3 termes – et finalement la relativité générale d’Einstein tient en une seule équation de 8 termes.

En revanche, la mécanique quantique nous projette dans un monde plus compliqué à décrire.

La théorie des cordes offre un nombre incroyable de versions possibles. Et combien d’équations et de termes pour décrire le comportement humain ? Pour décrire l’économie ? On cherche toujours. La démarche scientifique a peut-être atteint une limite.

Ainsi Chris Anderson – essayiste, entrepreneur, rédacteur en chef de Wired – annonce la fin de la science telle que nous la connaissons, remplacée par des connaissances basées directement sur des masses de données permettant de faire des prédictions, de prendre des décisions, d’anticiper des phénomènes aussi complexes que les comportements humains.

De la science sans théorie, sans modèle, sans réflexion, avec juste de l’exploitation de données.

Cette vision pourrait se développer demain grâce à une quantité phénoménale de données qui seront collectées à travers une myriade d’objets connectés communiquant en 5G. Des possibilités inimaginables aujourd’hui s’ouvriront.

En conclusion

Le développement des transmissions – telles que la 5G et la 6G qui se prépare déjà – et la collecte de données en masse par les futurs objets connectés seront des accélérateurs de connaissances et donc de croissance du savoir. Ils auront un rôle essentiel pour une meilleure compréhension de nos comportements et de notre impact sur l’environnement.

Si les réseaux neuronaux nourris au big data seront un maillon important, il faudra aussi continuer les recherches sur la modélisation des connaissances, sujet largement inexploré.

L’étude du cerveau humain permettra de fluidifier les échanges Homme-machine, ce qui conduira à nous intégrer encore plus dans l’éco-système informatique. Elle offrira aussi des possibilités d’interagir et influencer les individus.

Les nouveaux savoirs ne pourront peut-être plus être réduits à des théories simples, seule la vérité des données représentera la connaissance.

Rien de ce qui est présenté ici n’est de la science-fiction, il s’agit simplement de l’extrapolation de techniques et de processus déjà à l’œuvre, voire même déjà intégrés dans votre quotidien.

La question de la protection des données personnelles n’a volontairement pas été abordée dans cet article. Aujourd’hui déjà le sujet est sensible et fait l’objet de craintes et parfois de rejets. La collecte de données en masse, sans toutefois atteindre à la sphère privée, sera un enjeu majeur et demandera une nouvelle approche appelant au retour à l’anonymat. Ce sera le sujet de prochains articles.

Vous souhaitez nous signaler une erreur ? Contactez la rédaction.