Le jumeau numérique d’un robot collaboratif UR10e d’Universal Robots partage la simulation immersive dans laquelle on est plongé, par l’entremise d’un casque de réalité virtuelle. C’est la réplique virtuelle d’un poste robotique qui pourrait être éloigné de plusieurs centaines de kilomètres.
De la main droite, préalablement équipée d’une manette, on saisit le bras du robot pour lui imprimer une série de déplacements. La trajectoire, en surbrillance, se superpose à la scène 3D. Intégrée à la simulation, un moteur physique assure qu’on ne dépasse pas les butées du robot.
Parmi une série de boutons disposés sur la droite, l’un deux permet de rejouer cette trajectoire pour la vérifier. Si elle est correcte, un plug-in se chargera de la convertir en un script compréhensible par le robot. Un peu plus loin dans le champ de vision, un retour vidéo fournit une vision du robot dans son environnement réel…
Un projet long de trois ans
Ainsi pourrait-on à l’avenir reprogrammer un robot industriel à distance, pour pallier « le manque d’intégrateurs robotiques », justifie Enzo Delescluse, ingénieur-chercheur au laboratoire de simulation interactive du CEA-List, situé sur le plateau de Saclay. Au milieu d’une zone dédiée dans ce laboratoire, il donne de sa personne pour réaliser cette démonstration, à l’occasion de l’inauguration de la plateforme immersive 5G (PI5G), le mardi 24 septembre 2024.
Ce projet a commencé en juin 2021 et arrive à son terme. Outre le CEA-List, il a réuni Immersion et LS Group, des intégrateurs de technologies immersives, Haption, un spin-off du CEA qui développe des interfaces haptiques, Halys, un fabricant de cœurs réseau 5G, ainsi que la start-up Lynx, à l’origine d’un casque de réalité mixte.
L’objectif était de montrer ce que « la 5G pouvait apporter aux expériences immersives pour l’industrie », explique Enzo Delescluse, qui a officié en tant que coordinateur. « La plateforme est ouverte aux industriels, aux PME et aux start-up, poursuit-il. Ces entreprises peuvent venir faire des tests ici et on les accompagnera dans une démarche de transfert de compétences, afin d’adapter ces technologies à leur cas d’usage précis.»
Faible latence requise pour le retour haptique
Utile pour la formation ou la validation d’un concept, cette télé-expertise, accomplie au travers d’un réseau 5G privé et sécurisé, ne reflète que l’une des thématiques abordées dans le projet PI5G. Quelques pas plus loin dans ce même laboratoire, il s’agit cette fois de télé-opérer un robot mobile, assorti d’un bras manipulateur, à l’aide d’une interface qui reproduit la sensation d’effort. Une application qui peut convenir aux métiers présentant un certain niveau de risque pour l'humain.
Pour les besoins de la démonstration, le robot n’est distant que de quelques mètres, mais l’idée est là. Toujours muni d’un casque, on pilote le robot et on tente d’actionner divers boutons et manettes sur un panneau de contrôle, à l’aide de flux vidéo provenant de deux caméras installées sur le robot. Un nuage de points permet aussi de suivre et de retracer le trajet du robot.
Vanessa Kientz/CEA List L'expérience de télé-opération robotique. Au premier plan, le dispositif de contrôle du robot avec retour haptique; au second plan, le robot équipé de deux caméras.
Capable de transmettre toutes ces données simultanément, la 5G est également intéressante au sens où elle permet de régler finement les paramètres du réseau, contrairement au Wifi. Désignant le délai entre la vidéo et le retour haptique (qui requiert des données toutes les millisecondes), la latence peut ainsi être minimisée. « S’il y a un choc, on doit le ressentir naturellement, précise un chercheur. On a réussi à réduire cette latence à 7 millisecondes. »
« La 5G ne tient pas encore toutes ses promesses, reconnaît François Louveau, président d’Haption. On a travaillé les algorithmes pour compenser les problèmes de retard et les pertes de paquets. Mais il y a encore du boulot pour synchroniser les retours haptiques et vidéo. »
Des discussions engagées avec les industriels
La dernière démonstration donne à voir une expérience de télé-présence, qui pourrait être utile dans des phases d’avant-projet. Elle met en scène la table tactile d’Immersion et son logiciel Shariiing. Directeur R&D d’Immersion, Julien Castet semble « lancer » des vidéos, des plans ou encore des annotations vers l’extrémité de la table, données qui ensuite transférées dans le champ de vision d’une personne portant un casque de réalité mixte.
Dans un scénario réel, le casque se connecterait au point d’accès d’un smartphone 5G, faute de réseau Wifi disponible – situation courante dans une zone industrielle. La prochaine mise à jour de Shariiing tiendra compte de cette option de réalité mixte.
Enzo Delescluses résume le bilan du projet PI5G : « On a réussi à proposer plusieurs usages ». Reste à savoir si les industriels vont s’en emparer. « Des discussions ont commencé avec des acteurs du nucléaire, de la défense et de la construction automobile », fait savoir un communiqué. Enzo Delescluse évoque Naval Group pour la télé-opération robotique. De son côté, Julien Castet fait part d’échanges avec ArcelorMittal.



