Votre projet moonshot présenté en janvier vise à concevoir un robot autonome et auto-apprenant. Qu'est-ce qui vous y a amené?
C'est une évolution naturelle de nos travaux. Historiquement, le CEA abordait le sujet de la robotique sous l'angle de la téléopération de machines. Nous avons donc développé une approche singulière de la robotique, davantage axée sur l'effort que sur la vitesse ou la précision. Depuis vingt ans, nous transférons ce savoir-faire à la collaboration humains-robots. Nous voulons franchir une étape supplémentaire en intégrant davantage d'intelligence artificielle. En dotant le robot d'une perception – mais aussi d'une forme de compréhension – accrue de son environnement, nous voulons faciliter cette collaboration entre l'humain et la machine et rendre cette dernière plus autonome. Cette approche devrait démocratiser les robots dans de nombreux domaines, dont l'industrie.
Qu'apporteraient des robots plus autonomes et agiles dans une usine?
Des plateformes auto-apprenantes permettraient de surmonter l'un des principaux freins à la généralisation des robots : la programmation. Pour les PME qui cherchent à basculer rapidement d'une production à une autre, cela devient un véritable casse-tête. Le robot doit pouvoir suivre et, dans ce cas, la stratégie de programmation classique est un vrai blocage. Il n'y a aucun intérêt à passer plusieurs semaines à programmer un robot pour quelques jours d'utilisation. L'intelligence artificielle et les algorithmes d'apprentissage vont permettre aux robots d'effectuer des tâches plus complexes, en les programmant de la façon la plus simple possible. Le robot devrait être aussi facile à utiliser pour un opérateur que ses autres outils de travail.
Sur quelles briques technologiques travaillez-vous pour atteindre cet objectif?
L'une des technologies fondamentales est la mise en place de modèles associés à la perception du robot. Les robots prennent ainsi davantage « conscience » de leur environnement, physique ou humain. Nous utilisons des systèmes de vision qui reconstruisent l'espace en 3D. L'observation de l'humain dans son environnement est aussi un élément important. Nous créons des modèles interprétables qui facilitent la collaboration entre l'humain et la machine. Il y a encore beaucoup de progrès à faire dans le domaine de la vision pour que la machine puisse localiser les éléments dans des environnements de plus en plus complexes.
Quelles sont vos méthodes d'apprentissage?
Nous travaillons selon deux approches. La première est celle du machine learning et des méthodes d'apprentissage profond. Nos chercheurs utilisent des bases de données d'images préalablement étiquetées pour que le robot apprenne à reconnaître des éléments importants. Notre seconde approche s'appuie sur la simulation numérique. Celle-ci va permettre de multiplier les données qui vont venir alimenter nos algorithmes et donc accélérer l'apprentissage. La simulation donne également la possibilité de générer facilement des situations nouvelles et de confronter le robot à l'imprévu sans pour autant risquer de le détériorer.
Vous travaillez également sur un apprentissage par mimétisme…
Dans le cadre de notre projet moonshot, nous allons mettre en place d'ici à deux ans des démonstrateurs de robots qui, au lieu d'utiliser la programmation classique, seront capables de reproduire une compétence qui leur aura été enseignée. Cet enseignement peut se faire en mimant un opérateur humain ou même un autre robot. Mais posséder cette idée globale du geste à accomplir ne lui permettra pas de l'accomplir efficacement. Des algorithmes d'IA interviendront pour optimiser le geste du robot et le rendre plus fluide et rapide. Pour résumer, le robot va peu à peu acquérir une « conscience » de la tâche à accomplir et il apprendra, seul, à la remplir de la manière la plus optimale.



