L’intelligence artificielle va transformer notre gestuelle

Peut-on imaginer un numérique sans écran et sans clavier ? Pourrait-on un jour communiquer par gestes avec nos mobiles ?

Partager sur:
Sauvegarder cet article
Aimer cet article 0

Promouvoir la liberté n’est pas gratuit

Mais cela peut aider à réduire vos impôts de 66%

Faites un don dès maintenant

Faire un don

L’intelligence artificielle va transformer notre gestuelle

Publié le 15 février 2018
- A +

Par Joel Chevrier.
Un article de The Conversation

Au cours de la dernière décennie, le machine learning a permis l’invention des voitures qui roulent seules, d’une reconnaissance vocale pratique, une recherche sur le Web efficace et une compréhension grandement améliorée du génome humain (Lee Bell, Wired 2016).

Avec le machine learning, nous pouvons aujourd’hui apprendre nos gestes à une machine à partir des données transmises par des microcapteurs. Celle-ci sait ensuite les reconnaître, les mémoriser, les interpréter et les partager. Les applications sont nombreuses dans la santé, le sport et en particulier l’éducation.

Un article du journal Le Monde annonçait « Portée par les progrès de l’intelligence artificielle et du traitement du langage naturel, la voix s’impose peu à peu comme la nouvelle interface pour atteindre l’univers numérique ». Ici nous nous posons la question du geste comme autre interface émergente pour atteindre l’univers numérique.

Apprenez à un ordinateur comment vous écrivez R,G et B en bougeant le bras. Il saura ensuite reconnaître ces gestes quand vous les répétez.

Mille milliards de capteurs

Depuis dix ans, les microcapteurs prolifèrent et envahissent nos vies. Ils détectent et mesurent nos mouvements en permanence. Nous le savons : ils comptent nos pas et analysent nos gestes, et même souvent à notre insu. Jusqu’à cent mesures par seconde pour chacun de ces milliards de capteurs dans nos vies. D’un autre côté, les interfaces numériques basées sur des écrans substituent des images au monde réel, nous immergent dans le virtuel et stoppent les mouvements du corps.

Les chutes : les canapés et les lits sont des endroits dangereux.

Avec les données collectées grâce à ces microcapteurs du mouvement, traitées par le machine learning en temps réel, nous cherchons à opérer un retour au monde réel : peut-on imaginer un numérique sans écran et sans clavier ? Pourrait-on un jour communiquer par gestes avec nos mobiles ?

Bouger avec des capteurs pour communiquer ?

Un nouvel outil pour la rééducation à domicile

C’est par la rééducation que nous avons abordé la question. Comment toujours mieux accompagner un patient qui revient rapidement chez lui avec une prothèse du genou ou de la hanche ? Cette question a été au cœur d’une collaboration entre le CRI (Centre de Recherches Interdisciplinaires de l’Université Paris Descartes) qui est un centre d’expérimentation et d’innovation pédagogique, et le service de traumatologie de l’Hôpital Lariboisière à Paris.

En collaboration étroite avec le personnel soignant, nous avons conçu un environnement technologique individualisé.

L’application que nous avons créée fait le lien entre les capteurs, le traitement intelligent des données et le design de l’interface qui relie au patient. En pratique, une plaquette sur laquelle on a rassemblé capteurs de Smartphones et Wifi est cousue dans la chaussette ou le vêtement.

Reprendre la marche sous le regard de la technologie.
CRI Paris

Sous le regard d’un kinésithérapeute, le patient fait apprendre à la machine ses postures limites au-delà desquelles un signal retentit pour donner l’alerte. Il peut ainsi pratiquer dans sa vie quotidienne, sous le regard vigilant et bienveillant de cette technologie qui connaît donc ses limites. L’individualisation est un aspect essentiel de cet e-coach.

La mesure du mouvement et le traitement des données présentent un double bénéfice pour le patient. D’abord, grâce une détection très précoce d’un mouvement dangereux et à une alarme immédiate, il augmente sa zone de confiance. Ensuite, celle-ci est d’autant plus élargie que le patient sait les données transmises et analysées par ses soignants si la situation le nécessite.

Augmenter nos gestes pour mieux les apprendre ?

La vidéo ci-dessous montre comment il est possible d’associer tout type de signes ou d’informations numériques aux gestes et aux mouvements. Cet exemple s’appuie sur les travaux du groupe de Frédéric Bevilacqua à l’IRCAM (Institut de Recherche et Coordination Acoustique Musique) à Paris. Que l’IRCAM soit un des acteurs majeurs de cette recherche n’est pas une surprise. Dans la liste de nos gestes les plus fins et les plus difficiles à acquérir, les gestes imposés par les instruments de musique sont au sommet. Et si nous apprenions à faire de la musique en bougeant un Smartphone ?

Interfaces gestuelles pour la musique numérique à l’IRCAM.

Avec la Web App COMO produite par l’IRCAM, vous pouvez vous essayer au dialogue avec le machine learning, apprendre vos gestes à votre Smartphone et jouer avec les sons.

Pour le CRI, une question centrale est comment apprendre aujourd’hui ? Comment apprendre à apprendre tant le monde change vite et en profondeur ? Comment construire cette société apprenante ? Réponse de François Taddei, directeur du CRI : en essayant ensemble avec bienveillance et en gardant ce regard étonné sur le monde, celui du chercheur en fait. Nous sommes ici sur ce chemin.

Rien d’étonnant alors, à ce que le CRI Paris se soit emparé de cette technologie dans son Motion Lab, un laboratoire interdisciplinaire qui explore comment l’intelligence artificielle en transformant notre gestuelle, va ouvrir de nouvelles perspectives éducatives. IRCAM et CRI s’emparent donc ici de « la question du geste comme une interface émergente pour atteindre l’univers numérique » sous l’angle des apprentissages et de l’éducation.

Utiliser ces technologies pour l’éducation tout au long de la vie dans un monde devenu massivement numérique est passionnant, mais difficile. Et en fait personne n’est expert en la matière, tant cette rupture technologique nous fait dépasser les schémas de pensée habituels. Comme nous bougeons tous, tout le monde est bienvenu dans le bateau…

Des scientifiques à la danse contemporaine

Il m’a fallu du temps pour comprendre pourquoi se rassemblent autour de l’IRCAM, du CRI et de l’école de design, l’ENSCI Les Ateliers, des chercheurs et des étudiants aux profils très divers : danse contemporaine, informatique bien sûr et robotique, design, pédagogie, textile, physique, mécanique, anthropologie, santé, sports, musique, son…

J’aurais dû être plus attentif lors des ateliers, des événements comme une GameJam à Universciences, au cours desquels nous explorons comment mettre en scène ces outils fascinants mais aussi déroutants.

J’ai ainsi appris un geste à mon Smartphone. Quand j’ai tenté de le reproduire, cette satanée machine a refusé de le reconnaître. Un danseur présent a refait mon geste et s’est rapidement mis d’accord avec mon Smartphone quant à « mon geste ». Frustrant, mais porteur de sens : demain, nous devrons peut-être réapprendre à bouger, bouger mieux pour mieux communiquer.

Faire attention quand on bouge

Si le geste peut devenir une interface pour atteindre l’univers numérique, c’est donc une nouvelle façon de bouger qui apparaît. Elle nous conduit à porter une attention inhabituelle à des mouvements que nous faisons tous les jours sans y penser. Mais peut-être y pensons-nous surtout, quand nous ne pouvons plus les faire… « L’acrobatie, les exercices d’équilibre, la danse matérialisent dans une large mesure l’effort de soustraction aux chaînes opératoires normales, la recherche d’une création qui brise le cycle quotidien des positions dans l’espace. » disait André Leroi-Gourhan dans Le Geste et la Parole en 1965, dans un monde alors non numérique.

The ConversationQue la collaboration avec la danse contemporaine se soit rapidement établie dans ces recherches sur le geste et le mouvement, venues de la technologie et de la science, n’est pas vraiment une surprise.

Joel Chevrier, Professeur de physique, Université Grenoble Alpes

La version originale de cet article a été publiée sur The Conversation.

Voir le commentaire (1)

Laisser un commentaire

Créer un compte Tous les commentaires (1)
  • On sent de l’enthousiasme chez ce professeur…
    D’un coté, je comprends l’intérêt des capteurs d’assistance qui seront d’autant plus efficaces qu’ils seront personnalisés.
    De l’autre, je doute qu’il s’agisse vraiment de « communication » et je ne vois pas trop l’émerveillement ni le progrès dans des gestes de grandes ampleurs pour produire un message.

    Je rappelle que les « merveilleux ballets » de nos doigts autour d’un crayon ou sur le clavier constituent déjà un « formidable organe d’expression ». On peut aussi penser que ces minuscules muscles et os situés dans notre gorge font partie des « gestes qui communiquent ».

    Et puis, il faudrait penser également à la performance comparative d’expression de ces différents gestes. Bouger les bras ou les jambes seront peut-être plus rapides que la voix pour prévenir une chute, mais resteront bien plus limités dans tous les domaines d’usage. Hé oui, frapper sur un clavier va bien plus vite que la reconnaissance d’écriture cursive avec stylet sur écran, et si la voix peut sembler plus versatile, elle exige plus d’efforts dans les échanges plus complexes. Alors le danseur qui va devoir s’échauffer avant de s’exprimer devant le tableau noir, je doute….

    Ceci dit, il y a 40ans, on passait par du script rudimentaire pour commander les ordinateurs… Personnellement, j’aimerai revenir à une communication directe par un langage plutôt que l’utilisation des métaphores (bureau, objets simulés, ou les gestes…) qui s’ils sont une simplification pour la majorité des utilisateurs, sont également un appauvrissement.

  • Les commentaires sont fermés.

Promouvoir la liberté n’est pas gratuit

Mais cela peut aider à réduire vos impôts de 66%

Faites un don dès maintenant

Faire un don

Nous sommes à l’aube d’une nouvelle rupture technologique qui pourrait, à terme, bouleverser le marché de l’emploi. Le développement des solutions d’intelligence artificielle sur des pans entiers du marché de l’emploi aura des externalités positives indéniables, encore trop mal perçues des travailleurs.

Des transformations structurelles sans destruction massive

Selon le rapport de référence « Automatisation, numérisation et emploi » du Conseil d’orientation pour l’emploi (janvier 2017), moins de 10 % des emplois existants seront menacé... Poursuivre la lecture

Par Doug French. Un article du Mises Institute

Relatant une boutade de l'économiste soviétique Nikolai Fedorenko, Yuri Maltsev a illustré le problème du socialisme dans sa préface à l'ouvrage de Ludwig von Mises intitulé Economic Calculation in the Socialist Commonwealth. Fedorenko a déclaré à l'époque, selon les mots de Maltsev, "[Un] plan économique entièrement équilibré, vérifié et détaillé pour l'année suivante serait prêt, avec l'aide des ordinateurs, dans 30 000 ans."

L'intelligence artificielle comme outil socialiste ?

Vi... Poursuivre la lecture

Par Marc Bidan et Meriem Hizam.

Cette contribution évoque une drôle d’histoire. Il s’agit d’un simple grain de sable dans un scénario pourtant bien huilé. Ce grain de sable, cette anomalie, ce bug, cette erreur permet de replacer l’intelligence humaine au centre de ce qui est présenté – bien souvent par abus de langage – comme artificiel. Ainsi, même les robots sauront bientôt mentir !

À partir de ce paradoxe, cet article montre la persistance de la présence humaine dans l’intelligence artificielle. Il s’agit de dérouler et décr... Poursuivre la lecture

Voir plus d'articles