C'est une salle de classe un peu particulière qui se trouve au cœur du centre Inria Nancy-Grand Est. Ici, pas de cartables ni de petites têtes blondes, mais plutôt des algorithmes et des préhenseurs. Dans cette pièce lumineuse, l'équipe Larsen (Life-long autonomy and interaction skills for robots in a sensing environment) s'affaire entre les postes informatiques disséminés partout et la zone dégagée dans un coin où attentent, suspendus, les robots auxquels les chercheurs apprennent à prédire l'humain.
Les pieds articulés de Talos, un robot humanoïde de 95 kilos pour 1,75 mètre de hauteur, ne touchent pas le sol du laboratoire. À ses côtés, se trouvent iCub, un autre robot anthropomorphe, de la taille d'un enfant, et Tiago, un système doté d'un bras et d'une tête mobiles dont les caméras de vision semblent scruter les visiteurs. Au milieu d'eux, Serena Ivaldi, chercheuse de cette équipe commune à l'Institut national de recherche en sciences et technologies du numérique (Inria) et au Laboratoire lorrain de recherche en informatique et ses applications (Loria), s'apprête à endosser le rôle de maîtresse d'école.
D'un mouvement ample, elle agite les bras : l'apprentissage commence. «Lorsque j'effectue ces gestes, les capteurs du robot enregistrent l'action. Il sera capable de reproduire le mouvement, mais il va surtout en apprendre une représentation», explique cette spécialiste des interactions humains-robots.
Prédire la suite d'un geste
Cette « leçon » dispensée par la scientifique portera ses fruits, à force de répétitions. Le robot pourra à terme non seulement identifier une action réalisée par l'humain, mais aussi – et il s'agit du cœur des travaux de l'équipe Larsen – prédire la suite d'un geste à partir de la façon dont il a commencé. La machine apprend donc à mieux anticiper les actions des opérateurs humains pour partager plus efficacement, et surtout en toute sécurité, le même espace de travail. Ces recherches visant à doter les robots d'une plus grande « compréhension » constituent le socle d'une nouvelle approche de la robotique qui intéresse de plus en plus le monde industriel.
À la clé, une plus grande adaptabilité des robots, qui leur permettra de gagner en autonomie, même dans des environnements complexes. « Les gestes humains sont par essence variables et imprévisibles, pointe Serena Ivaldi. C'est un vrai défi pour un robot d'apprendre à décider en fonction de ces incertitudes. La prochaine génération de robots industriels doit pouvoir anticiper le résultat d'une action humaine, soit pour intervenir dans le but d'aider l'opérateur, dans le cas des cobots ou des exosquelettes, soit pour éviter une mise en danger lorsque le robot accomplit ses tâches au milieu d'humains.»
Etrange chorégraphie
Pour y parvenir, les chercheurs de l'équipe Larsen utilisent une méthode hybride, associant une prise d'informations sur le terrain à un modèle probabiliste. Voilà Talos qui entre en scène. Il se positionne au centre de la pièce. Il n'est pas le seul à se préparer : dans un coin, un chercheur enfile une combinaison noire, qui était suspendue au mur. Dans sa doublure se cache une multitude de capteurs. Quand les deux partenaires sont en position, une étrange chorégraphie débute entre l'homme et le robot. L'opérateur fait des gestes que la machine reproduit : attraper un objet, se baisser… Ce faisant, le robot crée une représentation de l'action en train de se produire et l'enregistre.
Guittet Pascal Le robot Tiago a pour objectif de parvenir à exécuter différentes actions : ouvrir une porte, ramasser des objets au sol ou encore prendre l'ascenseur. (© Pascal Guittet)
Le robot sera capable de reproduire le mouvement, mais il va surtout en apprendre une représentation !
— Serena Ivaldi, chargée de recherche à l'Inria (équipe Larsen)
Une fois que suffisamment de représentations sont compilées, les chercheurs passent de la partie physique de l'entraînement à la partie logicielle. Les mesures sont intégrées dans un modèle probabiliste qui estime à partir du début du mouvement la manière dont celui- ci va se poursuivre. « Cette approche hybride est, pour l'instant, importante pour nos travaux. Nous devons pouvoir comprendre chaque étape de la décision du robot pour ajuster son comportement si des choses ne fonctionnent pas », commente Serena Ivaldi. Un problème que rencontrent de nombreux roboticiens avec les algorithmes d'apprentissage profond, qui fonctionnent en « boîte noire » : les étapes entre l'acquisition de données et la décision finale ne sont pas ou peu connues.
Même si l'autonomie totale dans une usine peuplée d'opérateurs reste encore une lointaine perspective, apprendre à prédire les gestes des humains a déjà son utilité, notamment dans le cadre de robots téléopérés. Dans l'équipe Larsen, des expériences sont ainsi menées avec le robot Tiago et le petit humanoïde iCub, tous deux manipulés par des chercheurs à l'aide de joysticks perfectionnés. « Dans le cadre de la téléopération, cela permet de réduire significativement la latence entre la commande et l'action, précise Serena Ivaldi. Plus ce délai sera court, plus le geste sera précis. »
Hiérarchiser les informations
Lors d'une démonstration dans laquelle un opérateur pilote iCub pour que celui-ci attrape une boîte, la prédiction fait toute la différence. Lorsque cette dernière est désactivée, le robot reproduit les gestes de l'opérateur avec un léger retard. « Pour être certain que l'action aboutisse, l'opérateur doit prendre en compte ce délai. Ce n'est pas nécessaire si le robot “comprend” la tâche qu'on lui a confiée. À terme, nous voulons que la prédiction des gestes de l'humain par le robot soit suffisante pour que l'opérateur n'ait à prendre que des décisions de haut niveau. »
Plus modeste, le prochain objectif de l'équipe est de pouvoir utiliser des données émises par différentes familles de capteurs. Car si la reconnaissance du geste repose aujourd'hui sur des systèmes de caméras, « ils ne sont pas suffisamment précis », selon les chercheurs. Des capteurs de force, installés au bout des appendices des robots, mais aussi dans une peau tactile, pourraient donner des indices nouveaux sur les obstacles rencontrés ou les objets à saisir.
Une implémentation qui soulève de nouveaux défis selon Serena Ivaldi. «Plus le robot aura d'informations, plus la question de la hiérarchie des données reçues va se poser. Le robot devra peut-être décider à quel sens il devra faire confiance. Est-ce qu'un geste de l'humain contourne un obstacle que le robot ne voit pas? Est-ce que le poids de l'objet tenu est convenablement pris en compte dans l'évaluation du geste?» Autant de données qui viennent complexifier la prise de décision pour le robot, le forçant à gérer, là encore, l'incertitude.



