L’informatique et l’intelligence artificielle nous rendront-elles stupides ?

L’informatique et l’intelligence artificielle ne nous rendront pas stupides mais modifient notre façon d’apprendre et notre relation à la connaissance.

Partager sur:
Sauvegarder cet article
Aimer cet article 0
Jeu de go crédits Frédéric Bison (CC BY 2.0)

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

L’informatique et l’intelligence artificielle nous rendront-elles stupides ?

Publié le 29 avril 2016
- A +

Par Pierre-Jean Benghozi.

Victoire d'Alphago, triomphe de l'intelligence artificielle
Jeu de go crédits Frédéric Bison (CC BY 2.0)

La récente victoire d’AlphaGo sur Lee Sedol, le grand champion de go, a soulevé l’émotion des gazettes en plaçant la question de l’intelligence artificielle au cœur des analyses. L’ordinateur va-t-il dépasser l’humain ? Quelles sont ses limites ? Comment pallier les risques systémiques d’un monde dominé par la machine ? Quelles seront les responsabilités en cas d’accident provoqué par un ordinateur ? … Les questions et réactions soulevées à cette occasion ne sont finalement pas si différentes, dans leur essence, de celles présentes dans les écrits de science-fiction d’I. Asimov, A.E. Van Vogt et autre P.K. Dick. Elles sont posées à l’occasion de la victoire d’AlphaGo… comme elles l’avaient déjà été il y a quelques années avec le Deep Blue d’IBM, vainqueur du champion d’échec G. Kasparov, ou, plus récemment, dans un registre très différent, lors des expériences, en circulation, des premières voitures connectées sans chauffeur.

Loin de conduire à nous focaliser sur l’intelligence artificielle, cet événement devrait au contraire nous conduire à renverser la perspective de commentaires convenus qui, quand ils ne sont pas des marronniers journalistiques, relèvent souvent d’une technophobie rituelle. Car l’enjeu est probablement moins l’intelligence artificielle et les performances de l’ordinateur que la place, la nature et la manière dont, à l’heure du numérique, l’intelligence humaine évolue en s’instrumentant.

Google nous rend-il stupides ? était d’ailleurs, de manière provocante si ce n’est prémonitoire (Google est le promoteur d’AlphaGo ), le titre que Nicolas Carr avait donné à un de ses ouvrages. Il s’y demandait si l’intérêt incomparable que nous tirons du numérique – et, pourrions nous ajouter, de l’intelligence artificielle – ne nous amenait pas, incidemment, à sacrifier notre aptitude à développer des pensées approfondies. Il trouvait d’ailleurs dans les récents travaux de neurobiologie plusieurs arguments majeurs.

Physiologiquement parlant, en effet, notre cerveau n’est pas figé mais se transforme et se ré-agence selon les activités mentales qui le sollicitent. Les technologies de l’information et de la communication (TIC) ne modifient donc pas seulement nos usages et nos manières d’agir, elles peuvent aussi nous affecter en profondeur. L’acquisition rapide d’éléments d’information synthétiques provenant de nombreuses sources fragmentent notre perception et favorisent une activité mentale multitâche, très différente de la concentration requise par la lecture d’un livre ou la vision d’un film dans une salle de cinéma par exemple. En utilisant les ordinateurs connectés comme des substituts à la mémoire personnelle, nous ne libérons pas uniquement notre cerveau pour d’autres tâches, nous appauvrissons aussi notre capacité d’expérience, d’apprentissage et de sagesse, en contournant les processus neurologiques internes de consolidation de cette mémoire.

La situation n’est pas, de ce point de vue, radicalement nouvelle. L’homme (ou la femme) l’a déjà affrontée, dans son histoire, avec le développement des différentes « technologies de l’esprit » qui ont été utilisées, au fil du temps, pour trouver et classifier l’information, formuler et exprimer des idées, partager savoir-faire et connaissances, mesurer et calculer, accroître les possibilités de mémorisation. Qu’il s’agisse d’horloges, de cartes géographiques, d’abaques, d’écriture, d’imprimerie ou, il y a encore moins longtemps, de la machine à écrire et de la calculatrice, chacune, à son époque, a bouleversé la manière dont l’individu appréhende la connaissance et son rapport au monde.

Depuis le cadran solaire, le cadre abstrait du temps divisé est devenu pour tous, depuis plusieurs millénaires, la matrice des interactions sociales comme de la conception et l’organisation individuelle des actions. De même, la représentation de l’espace portée par les cartes géographiques – et plus récemment les GPS – structure la manière dont nous nous situons par rapport aux autres, dont nous nous déplaçons et nous représentons la société, les territoires et les relations sociales. Sans même évoquer les technologies support de l’écriture et de la retranscription du langage.

Des premiers cadrans solaires, des premières cartes et des premiers papyrus aux technologies numériques et à AlphaGo, les dynamiques ne sont donc, au fond, peut-être pas si différentes. La nouveauté radicale affrontée aujourd’hui tient sans doute à la masse des informations et données que les TIC rendent disponibles et permettent de traiter. Par l’ampleur des capacités de référencement, de recherche et de computation, elles transforment profondément la structure des connaissances. Elles favorisent notamment les compétences d«’information sur l’information » et de supervision, au détriment des capacités d’approfondissement, de concentration et de pensée discursive.

L’ordinateur est ainsi plus qu’un simple outil que l’on a programmé, dont l’intelligence artificielle deviendrait progressivement autonome et prendrait le pas sur l’humain en le gouvernant, à l’image du Hal de 2001 l’Odyssée de l’Espace. C’est surtout une machine qui, comme toutes les technologies, façonnent les comportements en exerçant une influence subtile sur ses utilisateurs. En passant du stylo à l’ordinateur et au traitement de texte, du crayon et du papier aux calculateurs, ce n’est pas seulement le support qui change, mais aussi la manière même d’écrire, de penser, de réfléchir, de calculer, de se concentrer, de faire travailler son imagination et sa mémoire et de dérouler le fil d’une pensée.

Mais une telle évolution est contrastée et il ne faut pas y voir simplement, comme on le lit trop souvent, la dégradation des formes du savoir et de l’apprentissage. Paradoxalement, par exemple, le recours grandissant au numérique via les ordinateurs, les tablettes et les smartphones s’accompagne d’une augmentation du temps consacré à la lecture et à la pratique de l’écriture. Par contre, cette pratique de l’écrit est très différente. La capacité de parcourir un texte et d’écrire des messages courts s’avérant plus importante que la compréhension ou la mémorisation de documents complets ou des efforts de rédaction plus soutenus. Google est emblématique car il favorise une approche parcellaire où la supervision et le repérage des bonnes informations se développent au détriment de l’approfondissement, de l’attention et de la concentration. En facilitant la recherche d’informations, le Web devient ainsi une technologie de l’oubli où mémoriser de longues références et effectuer des opérations compliquées constituent une perte de temps car la mémoire et les capacités cognitives de traitement peuvent être externalisées et accessibles à tout moment : quel besoin de se souvenir ou d’apprendre par cœur des références, quelle nécessité de travailler le calcul mental quand l’information ou le résultat peut être retrouvé d’un geste. Ce faisant, c’est cependant bien la manière même dont s’est construite notre culture collective faite de transmission et de discussion qui est remise en cause.

L’utilisation grandissante d’applications et d’algorithmes omniprésents sur nos ordinateurs et nos smartphones ne conduit pas à déposséder les individus de leurs compétences cognitives : elle pousse sans doute au contraire les individus à utiliser les fonctionnalités associées  aux algorithmes pour trier, calculer et mesurer davantage. Par contre, c’est sans doute, comme pour la lecture, l’aptitude à la supervision des données et à l’identification des outils qui compte désormais davantage que savoir effectuer tout seul cette même fonction.

Cette situation pose très clairement les ambiguïtés de notre rapport à l’Internet et à l’informatique. C’est justement parce qu’elles sont d’une utilité incomparable que leurs applications nous sont indispensables. C’est leur omniprésence même dans les activités quotidiennes et professionnelles qui stimule les formes intenses d’activité mentale multitâches. Nous acceptons d’être interrompus parce que chaque interruption nous apporte une information précieuse ; nous nous appuyons sur des prothèses cognitives que sont smartphones et ordinateurs connectés car leur utilisation nous permet de nous concentrer sur d’autres registres d‘activité et d’appréhender des savoirs et des connaissances bien plus larges et approfondies, bien plus rapidement que ce n’était le cas jusque-là.

L’usage d’applications informatiques, quelles qu’elles soient, s’inscrit toujours dans des codes et des séquences d’instructions préétablis, en formatant et structurant les processus personnels désordonnés de l’exploration intellectuelle. M. Volle voit d’ailleurs dans de telles évolutions ce qui lui semble constituer un moment historique de la société industrielle qui passe d’un monde organisé autour de la gestion de la main d’œuvre à une société structurée par les « cerveaux d’œuvre ». Nous programmons nos ordinateurs mais, en contrepartie, ils nous prédéterminent donc également d’une certaine manière.

Références :

Nicholas Carr (2010), The Shallows – What the Internet Is Doing to Our Brains ? Ed. Norton & Company.

Claude Rochet et Michel Volle (2015), L’intelligence iconomique, les nouveaux modèles d’affaires de la III° révolution industrielle, De Boeck Université, Louvain

Sur le web

Voir les commentaires (9)

Laisser un commentaire

Créer un compte Tous les commentaires (9)
  • Tout cela me conforte dans l’idée que nos petits-enfants seront des « aliens » : c’est à dire que l’on sera incapable de les comprendre car leur mode de pensée sera différent, jusqu’au plus profond de l’organisation de leur cerveau. Cela rend ridicule le constructivisme : le but change plus rapidement que la réalisation. On ne peut pas « penser » pour nos petits-enfants et définir le monde que l’on veut leur léguer, car leur monde n’aura rien à voir avec le nôtre.

    Pour le temps présent, le nôtre et le seul qui pour nous a donc un sens, ou plus exactement le futur à court terme qui détermine notre nécessaire (et douloureuse) adaptation, les choses ne me semblent pas non plus évidente. S’il y a changement dans les habitudes, les méthodes de travail et plus encore changement de paradigme et de façon de concevoir la réalité, il est bien difficile de définir quel sera le gagnant. Il y a une infinité de possibilités dans la façon de définir le monde, de l’organiser et de s’y faire une place. L’instruction avait autrefois la tâche facile de préparer les jeunes à un monde relativement stable et figé. Ce n’est plus possible. L’idée que l’EN doit enseigner le « numérique » ou la programmation a déjà 20 ans de retard avant même d’être mise en place.

    S’il fallait pour notre génération être capable de s’adapter au changement, il faudra peut-être pour la prochaine être capable de s’adapter au changement flou ou au changement du changement.

    • pragmat: « c’est à dire que l’on sera incapable de les comprendre car leur mode de pensée sera différent »

      Moi je crois l’inverse.
      La culture sera différente, les habitudes aussi, mais on peut parfaitement comprendre les ressorts psychologique et communiquer avec par exemple un paysan du Laos ou un Yanomami qui a 200 ans de « retard » technologique.

      pragmat: « Cela rend ridicule le constructivisme »

      Le futur est inconnaissable mais les outils numérique « pour notre bien et pour l’optimisation de nos sociétés » rendront extrèmement facile la surveillance avec toujours la tentation des dirigeants d’aller un peu plus loin.

      En tout cas, s’il n’y a pas de guerre ou l’émergence d’une monstruosité (la mémoire des tyrannies s’efface), le futur sera passionnant;)

  • Selon Pierre-Louis Tamboise citant Daniel Dewey, les machines super-intelligentes seront bien plus efficaces, dans le planning des actions et la résolution des problèmes, que n’importe quel humain ou groupe d’humains pour répondre aux questions de l’avenir. Retrouvez cette analyse sur le blog Trop Libre (http://www.trop-libre.fr/la-super-intelligence-un-espoir-mena%C3%A7ant/)

  • Jared Diamond argue que nos sociétés sophistiquées nous ont DEJA rendu plus stupide que nos ancêtres, et ça ne peut que s’aggraver : la grande force de nos sociétés c’est justement d’avoir pu mobiliser de façon efficace même les plus stupides, mais en contrepartie l’intelligence est devenu accessoire voire handicapante…

    • Newton disait qu’il s’était « hissé sur l’épaule des géants pour voir plus loin », le niveau moyen des connaissances de la population actuelle est infiniment plus élevé que dans le passé.

      On est éventuellement moins débrouillard en forêt ou sur un champ, mais eux seraient perdus avec notre technologie, on démarre avec le même potentiel intellectuel sauf qu’eux n’ont pas passé 15 ans de leur vie à ingurgiter des connaissances et résoudre des exercices intellectuels.

      P: « en contrepartie l’intelligence est devenu accessoire voire handicapante… »

      Là encore je n’en crois rien, l’intelligence ne sert pas beaucoup pour tracer un sillon, sarcler un champ ou porter des sacs de grains, en bref faire exactement le même travail que les parents et les arrières grands parents. Par quel miracle, l’intelligence serait devenu un handicap dans des sociétés infiniment plus complexe et dynamique ?

  • N’est-ce pas au final un récurrent procès de l’outil ?
    De la même façon que le violent excite sa violence avec un jeu vidéo violent, « l’idiot », à définir, rendra son idiotie plus visible au fur et à mesure qu’il manipule des outils informatiques (appareils ou programmes).

    Si l’on concède qu’il faut être « intelligent » pour développer un(e) machine/programme « intelligent » à qui l’on délègue une tâche « intelligente », on ne peut pas dire que cette réalisation enlève du « capital intelligence » à l’homme. Tout au mieux elle permet à l’utilisateur flemmard de continuer à l’être (flemmard) tant que de nouveaux outils lui simplifient les contraintes qu’il rencontre.

    Pour moi, le crainte « d’abrutissement » n’est pas imputable à la technologie ou au créateur, c’est à l’utilisateur. Rien ne permet de prédire que repasser au vote à main levée lorsque nous serons passés au vote électronique ne rendra pas un vote plus pertinent, pas vrai ?

    Comme vous dites dans l’article, cette question n’est pas nouvelle (le livre, le moyen de transport, etc) et je trouve qu’il faut toujours s’intéresser à l’usage pertinent d’un nouvel outil et en prévenir les abus plutôt que de regretter son existence (peut-être inéluctable, mais la question ne se pose plus).

    Bref, n’ayons pas peur d’un « problème Matrix », une armée de zombies en absence de synapse sera à mon sens toujours plus dangereuse que de battre le champion du monde de Go !

  • si l’intelligence artificielle depasse la CGT, JE DIS OUI!!!

    • Ce dépassement a été effectué le 13 janvier 1982 sur un Commodore VIC-20.
      Pour les autres humains, ça va être beaucoup, beaucoup plus long.

  • Les commentaires sont fermés.

La liberté d’expression n’est pas gratuite!

Mais déductible à 66% des impôts

N’oubliez pas de faire un don !

Faire un don

Ce vendredi 2 février, les États membres ont unanimement approuvé le AI Act ou Loi sur l’IA, après une procédure longue et mouvementée. En tant que tout premier cadre législatif international et contraignant sur l’IA, le texte fait beaucoup parler de lui.

La commercialisation de l’IA générative a apporté son lot d’inquiétudes, notamment en matière d’atteintes aux droits fondamentaux.

Ainsi, une course à la règlementation de l’IA, dont l’issue pourrait réajuster certains rapports de force, fait rage. Parfois critiquée pour son ap... Poursuivre la lecture

Article disponible en podcast ici.

La Russie est connue pour ses compétences en piratages informatiques. Elle les utilise actuellement en Ukraine et pourrait se lancer à l’assaut de l’Europe pour déstabiliser des pays comme la France.

Aussi, il est de notre devoir de ne pas faciliter la vie des pirates russes en optant pour trois bonnes pratiques.

 

Garder les systèmes à jour

Si un pirate russe tombe sur une faille, il n’y a plus rien à faire. Il peut corrompre l’ordinateur de sa victime en appuyant sur une se... Poursuivre la lecture

Voilà maintenant quatre ans que le Royaume-Uni a officiellement quitté l'Union européenne. Depuis le Brexit, la Grande-Bretagne a connu trois Premiers ministres, et d'innombrables crises gouvernementales. Néanmoins, malgré le chaos de Westminster, nous pouvons déjà constater à quel point les régulateurs du Royaume-Uni et de l'Union européenne perçoivent différemment l'industrie technologique. Le Royaume-Uni est un pays mitigé, avec quelques signes encourageants qui émergent pour les amateurs de liberté et d'innovation. L'Union européenne, qua... Poursuivre la lecture

Voir plus d'articles