« Gödel, Escher, Bach » : une Intelligence Artificielle peut-elle devenir consciente ?

Écrit en 1979, Gödel, Escher, Bach, an eternal golden braid de Douglas Hofstadter pose la question suivante : une Intelligence Artificielle peut-elle devenir consciente (sa réponse est oui) et dans quelles conditions ?

Partager sur:
Sauvegarder cet article
Aimer cet article 0
Abysmal-Void by Ars Electronica(CC BY-NC-ND 2.0)

Promouvoir la liberté n’est pas gratuit

Mais cela peut aider à réduire vos impôts de 66%

Faites un don dès maintenant

Faire un don

« Gödel, Escher, Bach » : une Intelligence Artificielle peut-elle devenir consciente ?

Publié le 20 juin 2020
- A +

Par Charles Castet.

Écrit en 1979, Gödel, Escher, Bach, an eternal golden braid de Douglas Hofstadter pose la question suivante : une Intelligence Artificielle peut-elle devenir consciente (sa réponse est oui) et dans quelles conditions ?

Sa démonstration passe par un rapprochement entre l’œuvre de trois personnes qui a priori n’auraient aucun lien entre elles : le mathématicien Gödel, l’artiste Escher et le musicien Bach.

Entre science, art et musique

La plupart des mathématiciens ont considéré que leur domaine se situe à mi-chemin entre les arts et les sciences. En effet, les théorèmes mathématiques partagent avec les œuvres artistiques les caractéristiques de l’inattendu – qualité que les lecteurs généraux peuvent retrouver dans Hardy’s Mathematician’s Apology lors de l’exposé du théorème de Fermat : un nombre premier impair (sauf 2) est une somme de deux carrés parfaits si et seulement si le reste de sa division euclidienne par 4 est 1 ; et dans ce cas, les carrés sont déterminés de manière unique.

Newton utilisa les mathématiques pour résoudre les problèmes pratiques dans les sciences physiques. Il conclut que des phénomènes observables réguliers et répétitifs régis parce que nous nommons les lois physiques peuvent être modélisés sous une forme mathématique afin d’être exprimés avec précision. De ce constat est née la revendication des mathématiques, comme le cadre formel idéal d’expression des lois naturelles.

Au cours de la Première Guerre mondiale, une telle analyse semblait déjà indiquer que les mathématiques et la logique déductive relevaient essentiellement des mêmes facultés. Non seulement les mathématiques étaient déjà dotées d’une forme structurelle composée de théorèmes et de preuves mais en plus la logique elle-même pourrait être exprimée par le biais d’un formalisme mathématique.

Bertrand Russel obtint des succès dans ce domaine avec sa modélisation des règles de logique pour éviter toute une classe de difficultés caractérisées par les paradoxes classiques d’Epiménide. La démarche de Russell fut démolie par Kurt Gödel dans un argument connu sous le nom de « Théorème de Gödel ».

Qu’a dit exactement Gödel ? Son théorème a été résumé dans un article précédent de la manière suivante :

Dans n’importe quelle théorie récursivement axiomatisable, cohérente et capable de « formaliser l’arithmétique », on peut construire un énoncé arithmétique qui ne peut être ni prouvé ni réfuté dans cette théorie.

Pour une meilleure compréhension de la découverte de Gödel, prenons l’analogie suivante tirée de la littérature.

Dans une de ses nouvelles, l’écrivain Jorge Luis Borges imagine La Bibliothèque de Babel, une bibliothèque qui comprendrait tous les ouvrages (de 410 pages à raison de 40 lignes par page, et de 80 caractères par ligne) que l’on peut obtenir en permutant de toutes les manières possibles les 26 symboles orthographiques auxquels on ajoute l’espace, la virgule et le point.

Donc 29 puissance 1 312 000. Le nombre des volumes est fini (et immense). La bibliothèque contient donc tout ce qu’on peut concevoir en 410 pages et en toutes langues imaginables (utilisant l’alphabet latin) en fait de sciences, d’histoire, d’utopies y compris les ouvrages dépourvus de tout sens (les plus nombreux) et les catalogues (un vrai, et X nombre de faux).

Mais l’existence d’un tel catalogue est contradictoire et un tel catalogue n’existe pas. Supposons les volumes rangés de la manière suivante : d’abord tous les livres dont la première lettre est A, puis tous ceux dont la première lettre est B, etc. Dans le groupe des A, ceux dont la deuxième lettre est B. Et ainsi de suite. On voit aussitôt que pour décrire et situer un livre quelconque un catalogue devrait mentionner toutes les lettres de cette ouvrage.

Autrement dit, pour désigner chaque volume, le catalogue de Babel doit reproduire le volume entier. Le catalogue est donc une seconde bibliothèque identique à la première et contenue en elle. Ce qui est impossible par hypothèse, car l’axiome dit que tous les ouvrages sont distincts. La conclusion est qu’un monde fini et total ne peut contenir son image. Donc il n’est pas total et si il est total alors il n’est pas fini car il ne contient pas son image.

C’est l’autre conclusion du théorème de Gödel, un théorème mathématique consistant est incomplet, car il ne peut prouver par lui-même sa propre cohérence, et s’il est complet alors il est inconsistant.

La conscience face à la cohérence et l’incomplétude

L’objectif principal de Gödel, Escher, Bach est d’explorer ces parentés de l’imagination, afin de rendre accessibles à des lecteurs sans connaissances mathématiques spécialisées toutes les idées essentielles qui sous-tendent la découverte de Gödel.

L’auteur puise, non seulement au sein de l’œuvre artistique d’Escher et ainsi que de la musique de Bach, mais aussi de Lewis Carroll, dont les œuvres mineures ont utilisé de longs dialogues spirituels parsemés d’ingéniosité pour illustrer de nombreux aspects de ce que nous appelons aujourd’hui le calcul proposé et ses fameux paradoxes.

Ce sont des paradoxes de contradiction, comme lorsque la déclaration « Je mens », si elle est vraie, doit être une fausse déclaration, mais si elle est fausse, doit être vraie.

Tous ces paradoxes impliquent ce que Hofstadter nomme une « boucle étrange », comme lorsqu’un argument porté à sa conclusion logique nie sa prémisse. Des boucles étranges analogues se produisent aussi dans les paradoxes de perspective d’Escher – comme lorsqu’une descente apparemment continue récupère le point de départ – et dans les explorations de Bach du paradoxe de l’achèvement d’un cycle enharmonique.

Outre les paradoxes de la contradiction, il existe des paradoxes de l’infini comme celui de Zénon d’Achille et de la Tortue ; un paradoxe résolu par la découverte qu’une infinie série d’intervalles de temps peut s’additionner à une somme finie.

Plus tard, Carroll exposa un tout autre paradoxe de la logique au moyen d’un autre dialogue entre la Tortue et Achille. Hofstadter utilise ces deux personnages, et un certain nombre d’autres de sa propre invention, dans une séquence de 20 pièces dramatiques, où le thème mathématique étudié est un miroir de la structure du dialogue.

La combinaison la plus brillante de Hofstadter d’un dessin à la Escher et d’une fugue à la Bach est utilisée pour traiter du conflit entre holisme et réductionnisme.

Le dessin incarne un vaste MU où les montants et la pièce croisée de l’énorme M se compose chacun du mot HOLISM, où cependant chaque ligne droite ou courbe dans chaque lettre est remplacée par le mot incurvé REDUCTIONISM ; et où la courbe de l’énorme U se compose du mot REDUCTIONISM, dans lequel chaque ligne droite ou courbe dans chaque lettre est remplacée par le mot courbé HOLISM.

Les trois premières voix de la fugue découvrent le sens du diagramme comme, respectivement, MU, le holisme et le réductionnisme, et poursuivent la discussion de ces deux points de vue philosophiques inconciliables ; et puis la quatrième voix jaillit sur l’étudiant du dessin une surprise passionnante qu’il serait injuste pour un critique de révéler.

Conscience humaine et conscience « artificielle »

Comment terminer un tel livre ? Une possibilité aurait été d’esquisser le développement ultérieur des travaux mathématiques sur l’indécidabilité depuis Gödel.

Hofstadter préfère une discussion prolongée sur les neurosciences et sur l’intelligence artificielle. Il postule que les cerveaux agissent comme des ordinateurs. Hypothèse qui est loin d’être confirmée par les découvertes contemporaines.

Le désaccord est important en raison des implications majeures du livre qui concernent la possibilité de création d’une IA « forte » c’est-à-dire consciente. Les « jeux » proposés par l’auteur n’ont pas seulement pour fonction d’illustrer l’impact du théorème de Gödel, mais aussi que le processus cognitif qui se passe dans le cerveau humain lors de la lecture et l’exécution sont réplicables par une machine intelligente car formalisable à travers des algorithmes.

Une attente concernant l’avenir dans ce domaine est illustrée par le programme informatique de Winograd reproduit entre les chapitres 17 et 18 du livre. Ces travaux sur la linguistique ont démontré que l’analyse grammaticale exige qu’un programme informatique utilise un modèle intégré à ce qu’on appelle « l’univers du discours », auquel les phrases se réfèrent.

Les programmes pour de telles tâches d’automatisation avancée sont couronnés de succès chaque fois que l’univers du discours est relativement petit, comme dans le monde « table-top » du programme de Winograd, ou comme dans le monde « usine-plancher » des robots industriels modernes.

On pourrait penser que les augmentations présentes et futures de la puissance des ordinateurs iraient de pair avec l’augmentation de la taille maniable de l’univers de discours d’un programme.

Il s’agit toutefois d’une attente erronée à cause d’un phénomène dénommé « l’explosion combinatoire » : le temps pris pour toutes les recherches, nécessaire dans les programmes d’automatisation avancée, augmente incommensurablement plus fortement que la proportion de la taille de l’univers du discours.

Ainsi, la prochaine génération d’ordinateurs, avec leur puissance énormément accrue, pourra au mieux seulement doubler la taille de l’univers du discours que les programmes d’automatisation avancés peuvent gérer.

L’automatisation a bien sûr atteint des stades très avancés. En revanche, la question importante sur la question de savoir si les programmes informatiques peuvent être donnés des capacités d’automatisation avancées dans un univers extrêmement complexe et varié de discours.

Une compréhension et une perception comparables à ce que nous éprouvons par nos propres sens, c’est-à-dire la création d’un fameux robot « polyvalent » qui serait conscient de lui-même. Cette perspective en admettant déjà qu’elle soit possible, est encore très éloignée.

Voir les commentaires (8)

Laisser un commentaire

Créer un compte Tous les commentaires (8)
  • La plupart des gens partent du postulat de leur propre intelligence afin de construire le monde. J’aime bien prendre le postulat inverse : partir de notre bêtise pour expliquer le monde.

    En se disant intelligent, l’homme prétend pouvoir construire une machine à son image et est terrorisé à l’idée que la machine puisse être plus intelligente que lui.

    Or l’erreur est de considérer que le cerveau humain puisse appréhender plus qu’une infime partie de ce qu’il perçoit et encore moins l’infinité de ce qu’il ne perçoit pas. Notre cerveau est un filtre : il limite la conceptualisation et l’analyse à ce qui est utile en fonction de notre nature et notre culture. Et ce cerveau doit en permanence faire des choix pour adapter ce filtre. La « conscience » ne naît elle pas d’une névrose provoquée par les conflits entre des critères de choix ?

    Inutile d’invoquer l’explosion combinatoire ou l’infinité mathématique pour affirmer qu’une machine ne peut imiter l’homme : il faudra d’abord lui implanter une névrose. Il pourra alors construire le monde comme un fils à papa étudiant en Science Economique incapable de concilier son aisance matérielle et l’absence de « justice » du monde réel.

    En ce qui concerne Escher ou Bach, il me semble qu’ils ont surtout subit une névrose en se rendant compte de la limite de nos sens : les matérialisations impossibles de la perception visuelle (comme un escalier qui boucle en montant à l’infini) ou l’approximation mathématique sur les fréquences sur laquelle repose la (fausse) harmonie perçue par le cerveau.

    Pareillement, Newton a pu croire que les mathématiques (et donc « l’intelligence humaine ») pouvait décrire le réel de façon absolue (avant que la mécanique quantique et la relativité montre qu’on en était loin si cela était seulement à notre portée). Gödel en a rajouté une couche et une gifle à la face des mathématiciens en montrant que l’axiomatique était non seulement arbitraire mais aussi non « cohérente », et que donc les mathématiques n’étaient qu’un outil imparfait par nature et non une vérité en marche.

    Je retiens de tout ça que plus on est intelligent et plus on est névrosé et vis et versa. Au fond mon chat est plus intelligent : se chauffer au soleil, se faire ouvrir les portes par son esclave humain et manger ses croquettes sans se poser de questions vaines sur Gaïa, l’augmentation des inégalités de revenus, la matière noire ou l’opportunité de devenir vegan.

    • @alan oui vanité des scientifiques qui pensaient pourvoir réduire le monde à 2-3 équations bien senties . Ma conviction est que la création est bien trop vaste pour être enfermée dans des lois , son propre est même de se créer sans cesse ce qui est la définition même de la vie . Vanité de l’homme qui veut depuis toujours créer un autre homme pareil à lui en singeant un autre créateur dont souvent ils refusent l’existence . Bêtise de ces hommes qui ne conçoivent que de créer « l’intelligence » tout en étant incapables d’en donner ni les contours , ni une définition, ni même de la mesurer de manière fiable . On n’a pas beaucoup avancé depuis Frankenstein . C’est d’un comique achevé .

  • Bon article.
    Elle est non seulement très éloignée, voir impossible si 100% synthétique, mais elle n’apporte en plus aucun avantage.
    Les travaux récents en intelligence pointent le rôle essentiel des émotions et elles sont toutes intimement liées à la biologie ; reproduction, faim, survie, peur, désir, empathie sociale, etc.
    .
    Si on veut savoir à quoi peut bien servir une telle intelligence, on peut regarder du côté de Cédric « marx » Villani le médaillé Field, ou Hubert « pastèque » Reeves l’astrophysicien.
    Un peu (à peine) moins intelligent mais conscient, nous avons les dauphins, les éléphants qui réussissent le test du miroir et qui objectivement ne peuvent pas servir à grand chose non plus. (le « mammal program » de l’U.S. Navy était anecdotique et insignifiant)
    .
    Bref, les systèmes-experts vont s’améliorer et imiter de mieux en mieux des réactions humaine là ou c’est souhaitable, mais la conscience de soit étant obligatoirement lié à une simulation très élevée d’un organisme biologique elle en reproduirait forcément aussi les défauts et ça ne sert strictement à rien.

    • « et ça ne sert strictement à rien. »

      Tout comme aller sur la lune, donc on le fera !

      « moins intelligent mais conscient, nous avons les dauphins, les éléphants »

      Les chiens (ou les chats – comme beaucoup d’autres) sont conscients : ils font des rêves. On pourrait donc commencer à créer des « animaux intelligents » pour le fun. Mais les chienchiens robots de Boston Dynamics ne seront « conscients » que quand on les aura dotés de capacité olfactives élevées et qu’ils rêveront qu’ils se flairent le c…

      • alan a écrit: « Les chiens (ou les chats – comme beaucoup d’autres) sont conscients »

        Non, on parle de conscience de soi, la première étape de l’intelligence et des pensées symboliques, formelles, abstraites. Les systèmes-expert font déjà infiniment mieux que des chats et des chiens dans le domaine de la réflexion pure.
        .
        alan a écrit: « Tout comme aller sur la lune, donc on le fera ! »

        Je ne vois vraiment pas le lien. La Lune, ce sont les matériaux, la haute technologie. Une domination scientifique, technologique politique et militaire.
        .
        L’IA consciente est forcément dotée d’une logique floue et émotionnelle donc qui raconte le plus souvent des imbécilités irrationnelles.
        L’Humain est arrivé ici à cause des « épaules de géants » de Newton, les milliers de générations qui n’ont gardé que le meilleur de torrents d’âneries débitées doctement par les QI les plus élevés.
        .
        L’IA consciente c’est systématiquement un fantasme puéril du père-sage-dans-le-ciel avec la voix de Morgan Freeman, mais tout le monde a une idée différente de sa « sagesse » et nous avons déjà des millions d’exemplaires de QI très élevés qui balancent des âneries inutiles.

        • Je partage grandement vos conclusions, mais je pense que vous devez affiner vos définitions :

          – la conscience de soi n’a pas besoin d’abstractions pour exister. Mais l’image que l’on se donne de soi-même et de l’univers est totalement abstraite.
          – l’IA n’est qu’un automate auto-programmable (pour ce que j’en ai vu jusqu’à présent). Même quand on branche une IA sur les réseaux sociaux et qu’elle répète les c… ce n’est qu’une limite ou une erreur de conception.
          – le QI mesure essentiellement une aptitude fortement liée aux concepts abstraits indispensables dans les mathématiques. Les « âneries » (dont ne sont pas à l’abri les QI les plus élevés) relèvent de domaines moins formels et plus émotionnels. (Le mélange des genres peut bien sur souvent amener des scientifiques à trahir la rigueur de la science, si c’est la ce que vous dénoncez).

          La lune, ce n’est qu’un blague pour dire que l’homme « cherche » toujours à aller plus loin, même si en apparence cela ne mène nulle part, mais en apparence seulement car comme vous dites « on garde le meilleur ».

  • Article intéressant. S’il est possible qu’un ordinateur devienne conscient, alors sa conscience sera celle d’un ordinateur car le corps est intimement lié à l’esprit. Cela voudra aussi dire qu’il sera doué de liberté . Il faudra lui aussi qu’il aille manger la pomme de l’arbre défendu. Nous sommes loin du compte.

  • Histoire de pinailler… Je pense qu’il y a une erreur de raisonnement dans votre exemple de la bibliothèque de Babel. Vous postulez l’existence d’un type de livre « catalogue » pour ensuite arriver à une contradiction. Ce n’est pas le système qui est inconsistant, c’est votre hypothèse. Les livres créés n’ont pas de type « a priori », ils sont ce qu’ils sont. Votre classification de départ n’a pas de raison d’être donc l’axiome qu’elle représente doit être rejeté.
    … et vous ne pouvez donc pas utiliser cet exemple pour illustrer Godel…
    Et enfin,, sans doute un typo lorsque vous écrivez « un théorème mathématique consistant est incomplet, car il ne peut prouver par lui-même sa propre cohérence ». Il ne s’agit pas théorème mais d’une théorie consistance (elle même constituée de théorèmes) qui ne peut pas prouver sa propre consistance.

  • Les commentaires sont fermés.

Promouvoir la liberté n’est pas gratuit

Mais cela peut aider à réduire vos impôts de 66%

Faites un don dès maintenant

Faire un don

Par Vincent Martin, Université de Bordeaux et Christophe Gauld, Université Paris 1 Panthéon-Sorbonne. 

 

« Bonjour Monsieur. Je vous en prie, installez-vous. Alors… comment allez-vous depuis la dernière fois ? »

Et si, dans quelques années, cette phrase anodine n’était plus prononcée par un psychiatre en chair et en os mais par une IA, une Intelligence artificielle ? Avec la résurgence récente de la psychiatrie dans le débat public, notamment en raison de la crise sanitaire, l’idée de proposer des systèmes de suivi d... Poursuivre la lecture

Nous sommes à l’aube d’une nouvelle rupture technologique qui pourrait, à terme, bouleverser le marché de l’emploi. Le développement des solutions d’intelligence artificielle sur des pans entiers du marché de l’emploi aura des externalités positives indéniables, encore trop mal perçues des travailleurs.

Des transformations structurelles sans destruction massive

Selon le rapport de référence « Automatisation, numérisation et emploi » du Conseil d’orientation pour l’emploi (janvier 2017), moins de 10 % des emplois existants seront menacé... Poursuivre la lecture

Par Doug French. Un article du Mises Institute

Relatant une boutade de l'économiste soviétique Nikolai Fedorenko, Yuri Maltsev a illustré le problème du socialisme dans sa préface à l'ouvrage de Ludwig von Mises intitulé Economic Calculation in the Socialist Commonwealth. Fedorenko a déclaré à l'époque, selon les mots de Maltsev, "[Un] plan économique entièrement équilibré, vérifié et détaillé pour l'année suivante serait prêt, avec l'aide des ordinateurs, dans 30 000 ans."

L'intelligence artificielle comme outil socialiste ?

Vi... Poursuivre la lecture

Voir plus d'articles