La communication comme facteur déterminant de l’évolution (2)

Le développement des transmissions – telles que la 5G – et la collecte de données en masse par les futurs objets connectés seront des accélérateurs de connaissances et donc de croissance du savoir.

Partager sur:
Sauvegarder cet article
Aimer cet article 0
Machine Learning & Artificial Intelligence by Mike MacKenzie (CC BY 2.0)

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

La communication comme facteur déterminant de l’évolution (2)

Publié le 8 décembre 2019
- A +

Dans la première partie de cet article, nous avons vu qu’en permettant la diffusion et la transmission des connaissances les outils de communication sont devenus les puissants moteurs du progrès.

Les grandes innovations sont souvent en rapport avec la communication : l’écriture, l’imprimerie, le téléphone, Internet, les réseaux sans fil. À partir de cette vision du progrès, nous pouvons extrapoler et imaginer les évolutions possibles.

Le langage naturel exprime de la connaissance

Détaillons le processus de communication entre deux personnes en le décomposant en cinq étapes :

  1. La modélisation : une personne transforme mentalement son message en un formalisme communément interprétable, le plus souvent en langage naturel.
  2. La matérialisation : à l’aide d’un clavier, d’un stylo, ou d’un micro le message est matérialisé.
  3. La transmission : par internet pour un email, par la poste pour une lettre, ou par le réseau GSM pour la voix.
  4. La restitution : le message transmis est restitué sous une forme interprétable via un écran, un haut-parleur, etc.
  5. L’interprétation : le destinataire lit ou écoute le message et l’intègre dans son cerveau.

L’histoire des sciences montre que nous avons particulièrement développé l’étape de transport de l’information. En revanche, si l’on s’intéresse à l’étape de modélisation, qui consiste à traduire une idée en quelque chose de communicable et compréhensible, on constate qu’elle se fera le plus souvent en langage naturel, et ceci depuis plus de 5000 ans.

En d’autres termes, toute connaissance s’exprime par des mots, et seuls les mots expriment des connaissances.

Certes, des représentations graphiques viennent compléter le langage : plans, cartes, graphiques, équations mathématiques, ou représentation gestuelle, mais l’essentiel reste exprimé en langage naturel, comme l’article que vous lisez en ce moment !

La connaissance scientifique également s’exprime en langage naturel, sous forme d’articles ou de livres.

La diffusion des idées, des philosophies, des religions se fait également en langage naturel écrit ou parlé : livres, dictionnaires, encyclopédies, articles, conférences, cours, débats. Bien que les supports soient aujourd’hui dématérialisés, les contenus restent exprimés en langage naturel.

Et quand l’expression populaire dit qu’une image vaut mille mots, ce peut en effet être une forme efficace dans certains cas – par exemple un plan – mais cela reste une exception ou un support.

Les films et les documentaires sont à présent des formes d’expression importantes et influentes, mais à nouveau leur contenu est essentiellement du langage naturel parlé, agrémenté d’images qui soutiennent le propos sans être le propos lui-même.

Des formes alternatives

L’informatique, en tant que science de l’information, étudie la formalisation de la connaissance et apporte des moyens d’expressions alternatifs. Ceux-ci se sont longtemps résumés à la modélisation de données plutôt que de connaissances ; les bases de données en sont l’exemple typique.

Les langages informatiques représentent une forme de représentation formelle de connaissances à destination de machines qui les interprètent de manière automatique.

On ne peut pas encore parler de réelles connaissances, mais plutôt de séries d’instructions.

Plus récemment, les réseaux neuronaux – à la base du deep learning – proposent un moyen original et prometteur de stockage des connaissances. Sans qu’on puisse lire explicitement leur contenu, ils se montrent très efficaces pour fournir des réponses cohérentes à des sollicitations, pour peu qu’on les ait suffisamment entraînés.

À n’en pas douter, la modélisation des connaissances est un champ d’études pouvant déboucher sur des avancées très significatives, permettant une meilleure diffusion des connaissances et une exploitation automatisée.

C’est le cœur des recherches en Intelligence Artificielle.

Le frein humain

La qualité de la communication dépend de la qualité d’expression initiale et de la faculté du destinataire à la comprendre.

Ces deux contraintes très humaines se présentent comme des freins à la diffusion et à l’exploitation du savoir.

Un exemple du monde de l’entreprise montre que même avec les derniers outils de communication, la collaboration à distance n’est pas fluide. Ou plutôt, elle fonctionne correctement lorsque les échanges sont très cadrés et très structurés et donc très simples.

Par exemple, si je passe une commande par Internet ou si j’instruis un transfert bancaire.

En revanche s’il s’agit de collaborer à distance sur des sujets complexes pour lesquels il n’existe pas de structuration formelle, alors les difficultés arrivent du fait de la difficulté à exprimer une idée et la faire comprendre.

Tous ceux qui ont vécu la ségrégation des responsabilités en entreprise ou la délocalisation de services complexes savent de quoi je parle, et ce n’est pas l’envoi de mails ou les visio-conférences qui suffisent à combler la distance. Des problèmes peuvent surgir de la difficulté à exprimer une idée ou un besoin complexe par le langage naturel manquant de rigueur et sujet à interprétation.

Certes des outils de modélisation existent, mais sont souvent lourds, complexes et insuffisants avec le risque même d’étouffer le sujet.

L’interface homme-machine

Une autre approche, anthropocentrique cette fois, est l’étude du cerveau humain et les possibilités de lire directement les pensées.

Cela permettra de s’affranchir de l’étape du langage naturel en allant directement extraire l’information chez le sujet. Mais cela suppose de comprendre comment se forme la pensée dans le cerveau. Beaucoup de progrès seront encore nécessaires pour obtenir des résultats probants.

Cette approche sera toutefois limitée à traiter la connaissance tel que l’Homme la conçoit, alors que la connaissance peut s’imaginer au-delà de ce qu’il peut appréhender.

Cela sera néanmoins une voie prometteuse pour permettre aux Hommes d’interagir de manière plus fluide avec les systèmes informatiques en fournissant une interface homme-machine.

La donnée qui remplace la connaissance

L’exemple des réseaux neuronaux montre qu’il possible de modéliser de la connaissance uniquement à partir de données d’exemple.

On stocke de la connaissance à partir de données, puis on exploite ce stock pour en tirer des affirmations concrètes : reconnaissance vocale, faciale, prévision, conduite automatique, etc.

Pour la première fois, on aborde la question de la connaissance sans passer par la modélisation. On quitte ainsi la démarche scientifique telle qu’on la pratique depuis Galilée qui veut qu’on réduise un phénomène à une théorie concise.

Certains n’hésitent pas à penser que la réduction à une théorie exprimée en peu de signes est une marque d’esthétique et qu’il existe un lien entre la concision et la pertinence d’une théorie.

La démarche scientifique veut ensuite que la théorie soit confrontée à l’expérience en vue de la valider ou de la réfuter. Cette approche se justifiait lorsque l’imagination était fertile et la donnée rare et précieuse.

À présent, l’imagination humaine montre ses limites et, a contrario, la donnée se collecte en masse. Des outils comme les réseaux neuronaux permettent d’exploiter cette masse de données, sans modélisation ni réflexion humaine, pour en tirer des prévisions comme le ferait une théorie classique.

On remarquera que la science classique a permis des réductions très fortes jusqu’à 1915 : l’électromagnétisme tient en quatre équations dont la plus longue contient 8 termes, la mécanique newtonienne en trois équations avec 5 termes pour la plus longue, la relativité restreinte à donner la fameuse équation E=mC² – 3 termes – et finalement la relativité générale d’Einstein tient en une seule équation de 8 termes.

En revanche, la mécanique quantique nous projette dans un monde plus compliqué à décrire.

La théorie des cordes offre un nombre incroyable de versions possibles. Et combien d’équations et de termes pour décrire le comportement humain ? Pour décrire l’économie ? On cherche toujours. La démarche scientifique a peut-être atteint une limite.

Ainsi Chris Anderson – essayiste, entrepreneur, rédacteur en chef de Wired – annonce la fin de la science telle que nous la connaissons, remplacée par des connaissances basées directement sur des masses de données permettant de faire des prédictions, de prendre des décisions, d’anticiper des phénomènes aussi complexes que les comportements humains.

De la science sans théorie, sans modèle, sans réflexion, avec juste de l’exploitation de données.

Cette vision pourrait se développer demain grâce à une quantité phénoménale de données qui seront collectées à travers une myriade d’objets connectés communiquant en 5G. Des possibilités inimaginables aujourd’hui s’ouvriront.

En conclusion

Le développement des transmissions – telles que la 5G et la 6G qui se prépare déjà – et la collecte de données en masse par les futurs objets connectés seront des accélérateurs de connaissances et donc de croissance du savoir. Ils auront un rôle essentiel pour une meilleure compréhension de nos comportements et de notre impact sur l’environnement.

Si les réseaux neuronaux nourris au big data seront un maillon important, il faudra aussi continuer les recherches sur la modélisation des connaissances, sujet largement inexploré.

L’étude du cerveau humain permettra de fluidifier les échanges Homme-machine, ce qui conduira à nous intégrer encore plus dans l’éco-système informatique. Elle offrira aussi des possibilités d’interagir et influencer les individus.

Les nouveaux savoirs ne pourront peut-être plus être réduits à des théories simples, seule la vérité des données représentera la connaissance.

Rien de ce qui est présenté ici n’est de la science-fiction, il s’agit simplement de l’extrapolation de techniques et de processus déjà à l’œuvre, voire même déjà intégrés dans votre quotidien.

La question de la protection des données personnelles n’a volontairement pas été abordée dans cet article. Aujourd’hui déjà le sujet est sensible et fait l’objet de craintes et parfois de rejets. La collecte de données en masse, sans toutefois atteindre à la sphère privée, sera un enjeu majeur et demandera une nouvelle approche appelant au retour à l’anonymat. Ce sera le sujet de prochains articles.

Voir les commentaires (8)

Laisser un commentaire

Créer un compte Tous les commentaires (8)
  • Aujourd’hui on a déjà du mal a separer le bon grain de l’ivraie alors demain cela sera encore pire ,trop d’information tue l’information. Non le progrès de l’humanite ne passera pas par la 5G ,les circuits neuronaux, il cessera puis regressera, on est à l’aube du retour vers la barbarie ou un monde de zombis ,aucuns autres choix possibles .

    • Je ne suis pas d’accord avec votre pessimisme. Plein de choses se font, plein d’enthousiasmes s’expriment, loin des radars ou au contraire en plein milieu.

      • En précisant que ces enthousiasmes s’expriment loin des mirages inhumains et insoutenables de l’IA et de ses mirages. Bâtissons sur l’humain, les gens, le local, le territoire, le travail direct, par sur des fantasmes fragiles de progrès technologique connecté éternel.

  • Pour moi, il y a une erreur fondamentale dans cet argumentaire : l’évolution a toujours fortement bénéficié de la communication, mais la communication en elle-même ne produit pas la moindre évolution positive.
    En particulier, il n’y a pas de « vérité des données », il y a une vérité du monde, dont données et théories sont des représentations pouvant servir à améliorer notre sort, comme à le faire empirer, suivants nos motivations, nos aspirations, nos méthodes, et notre habileté … humaines.

    • Il faut que vous vous intéressiez à la logique, notamment au paradoxe de Russel (physicien moderne, prix Nobel de Littérature) sur l’erreur auto-référentielle: « Tous les Crestois sont des menteurs » ou  » Je ne voudrais pas appartenir à un club qui voudrait bien de moi comme membre ».

  • Encore un article riche et foisonnant.
    L’exploitation de données en masse, que permet la giga-informatisation, permettra sans aucun doute de résoudre un certain nombre de problèmes en médecine, physique, mathématique, transports,… insolubles autrement ou de faire nouvelles découvertes par sérendipité.
    Cependant je ne me fais pas beaucoup d’illusion sur l’intelligence autonome de l’intelligence artificielle. Comme dit l’autre, il faut montrer 100000 photos de chats à une IA pour qu’elle les reconnaisse suite avec un taux de réussite de 95 %. Un gosse de 3 ans, il lui suffit d’avoir vu 2 chats pour qu’il les repère ensuite avec 100 % de réussite !
    Je ne suis, à ce titre, vraiment pas sûr que le véhicule autonome puisse jamais rouler dans les mêmes conditions qu’un être humain.

  • Première remarque : la complexité d’internet est faible,même avec des milliards d’objet connectés. Le moindre cerveau compte plus de 100 milliards de synapses, qui sont elles-mêmes des agrégats complexes. De plus, on ne cesse de découvrir de nouveaux canaux quasi-synaptiques dendrites de l’axone notamment), sans mentionner la découverte récente du rôle cognitif des fibres blanches.
    Second point : la tête peut toujours se bâtir dans des châteaux en Espagne. Si on ne peut les construire physiquement, c’est comme déclarer que les girafes volent. Une société fondée massivement sur l’IA n’est tout simplement pas possible, pour des raisons de bilan thermodynamique global et d’empreinte écologique (un gros-mot parmi les obscurantistes), qui devraient être simple à comprendre pour un lecteur un poil scientifique.
    Troisième question : cette évolution est-elle désirable, est-elle un progrès ?
    Pour répondre à ce point, reprenons deux citations :
    « De la science sans théorie, sans modèle, sans réflexion, avec juste de l’exploitation de données. »
    1 – La condition pour faire cette « science » est de disposer massivement de données et avoir développé les systèmes de recueil, de stockage de traitement des données. Cela dessine les contours d’un appareil techno-industriel qui ressemble furieusement à la Chine. Nous voilà face à ce paradoxe où le (pseudo) libéralisme nous envoie vers la dictature. Je doute que les pères et mères du libéralisme, épris de liberté devant l’absolutisme, y reconnaissent leur progéniture.

    2 : « De la science sans théorie, sans modèle, sans réflexion ». Ce sophisme est effectivement en train de se répandre parmi des auterus aux humanités déficientes. Cette « science » ne pourra qu’être une pseudo-science. Elle ne peut pas l’être, puisqu’elle s’interdit toute essentialisation heuristique – une pomme est déjà l’essentialisation heuristique – de toutes les pommes réelles dont pas une n’est identique à l’autre- toute raison, ou formalisme, fussent-ils d’élégantes équations.
    3 – Mais pour quoi faire alors l’IA ? L’auteur vend la mèche « avec juste de l’exploitation de données. ». Qui, quoi exploiter, comment, dans quelles intentions ? On détruit la valeur heuristique de la science pour en faire une pure technique, un pur moyen, dont les objectifs sont décidés par quelque oligarchie, nécessairement humaine, trop humaine, et donc incapable de connaissance au-delà de ce qu’il peut appréhender, pour reprendre les termes de l’auteur. Raisonnement platement récursif, qui ne devrait pas être au-delà des capacités d’un mathématicien, d’un logicien ou d’un philosophe. Il faut donc en conclure que la proposition d’une « science sans théorie, sans modèle, sans réflexion » est un sophisme. Les sophismes sont nuisibles à la santé morale et à la liberté.
    « Cette approche sera toutefois limitée à traiter la connaissance tel que (sic) l’Homme la conçoit, alors que la connaissance peut s’imaginer au-delà de ce qu’il peut appréhender. »
    Il y a quelque chose de terrible dans cette proposition. L’obsolescence de l’homme fut le constat partagé du nazisme et du communisme réel. Je ne peux m’empêcher de penser au critère qu’ avaient les Khmers rouges pour décider de la survie d’une personne : est-elle socialement utile ? Dès lors que nous serons périmés en tant qu’humain – que dit d’autre l’auteur ?- les portes de la dictature totale s’ouvriront.
    Qu’en conclure ? Que les zélotes de l’IA constituent une dangereuse secte au discours totalitaire et monstrueux. Qu’il n’y a aucune filiation entre le libéralisme et l’IA : ils sont antithétiques.

  • Une précision supplémentaire quant au fonctionnement du cerveau, infiniment complexe, bien au-delà de tout IA. Le fonctionnement du cerveau est d’abord quantique, son potentiel pat théorie, infini. Bien au-delà des deux trois Qbit qu’a manipulés récemment par IBM, grâce à une d’ébauche d’énergie, quand le cerveau est tellement plus sobre.

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Ce vendredi 2 février, les États membres ont unanimement approuvé le AI Act ou Loi sur l’IA, après une procédure longue et mouvementée. En tant que tout premier cadre législatif international et contraignant sur l’IA, le texte fait beaucoup parler de lui.

La commercialisation de l’IA générative a apporté son lot d’inquiétudes, notamment en matière d’atteintes aux droits fondamentaux.

Ainsi, une course à la règlementation de l’IA, dont l’issue pourrait réajuster certains rapports de force, fait rage. Parfois critiquée pour son ap... Poursuivre la lecture

Voilà maintenant quatre ans que le Royaume-Uni a officiellement quitté l'Union européenne. Depuis le Brexit, la Grande-Bretagne a connu trois Premiers ministres, et d'innombrables crises gouvernementales. Néanmoins, malgré le chaos de Westminster, nous pouvons déjà constater à quel point les régulateurs du Royaume-Uni et de l'Union européenne perçoivent différemment l'industrie technologique. Le Royaume-Uni est un pays mitigé, avec quelques signes encourageants qui émergent pour les amateurs de liberté et d'innovation. L'Union européenne, qua... Poursuivre la lecture

Année après année, mesure après mesure, étape par étape, technologie après technologie, le fisc augmente son pouvoir, sa surface de jeu, et son « efficacité » de collecte pour l’État, toujours en manque d’argent.

 

Le prélèvement à la source de l'impôt sur le revenu

Souvenons-nous du prélèvement automatique des impôts sur le revenu, une mission dont l’ambitieux Gérald Darmannin s’est brillamment acquitté, confortant ainsi l’État dans son assurance d’être payé, dans le coût de sa collecte (maintenant déléguée aux employeurs qu’... Poursuivre la lecture

Voir plus d'articles