Dévracage
Depuis quelques années, les recherches associant systèmes de vision et robots se penchent sur l’une des applications les plus prometteuses de la robotique autonome : le dévracage 3D. Cette tâche, qui consiste à extraire un élément d’une caisse dans laquelle des pièces sont disposées aléatoirement, a longtemps été considérée comme un jalon majeur pour la robotique « intelligente ». La machine doit pouvoir reconnaître les objets dans des configurations imprévisibles et adapter automatiquement les trajectoires du robot en fonction de la tâche à accomplir. Cette application a été mise en avant ces dernières années par les entreprises d’e-commerce, comme Amazon, mais aussi par des industriels qui y voient un moyen plus efficace pour alimenter en composants les machines de production. La société française Innodura, située sur le campus de La Doua près de Lyon (Rhône), a lancé en 2019 un système dont la performance a récemment été saluée par le Centre technique des industries mécaniques (Cetim). Le système, aujourd’hui déployé chez de grands industriels comme Renault et Safran, a été mis au point en collaboration avec le Laboratoire d’informatique en image et systèmes d’information (Liris). Il repose sur une caméra stéréoactive, fournie par la société Sick, fixée sur le bras polyarticulé. Un faisceau de lumière bleue est projeté vers le bac contenant les pièces. La caméra, en réceptionnant la lumière réfléchie et en calculant le temps d’aller-retour, donne une représentation de l’enveloppe des objets. Des algorithmes de reconnaissance de la géométrie sont utilisés pour isoler les enveloppes des différents objets du vrac, mais également pour repérer les bords du contenant. « Avec ces informations, le robot calcule, seul, la trajectoire optimale pour saisir l’objet au bon point de préhension », explique Maxime Robin, le fondateur d’Innodura. Cette technologie est pour le moment séquentielle : le bras positionne dans un premier temps la caméra pour analyser le bac, puis il effectue son mouvement. La société souhaite poursuivre ses recherches pour obtenir une analyse en temps réel de l’environnement, notamment dans le cadre d’applications en robotique collaborative.
Pick and place
Siléane Siléane a mis au point Flowpick, un système permettant au robot d’adapter en temps réel ses gestes à la disposition de pièces sur la bande de transport. (© Siléane)
Si le tri robotisé de produits placés sur un tapis de convoyage est bien connu dans les usines, notamment agroalimentaires, il était jusqu’à présent cantonné à des productions standardisées. Les robots et les systèmes de reconnaissance trouvent en effet leurs limites lorsque le flux à traiter est composé de produits dont la géométrie peut être variable. C’est le cas du tri de produits souples et du tri de déchets. La société Siléane, spécialisée dans l’intégration robotique, a choisi de relever ce défi. Son système Flowpick permet au robot d’adapter en temps réel et en boucle fermée ses trajectoires en fonction du comportement des produits défilant sur la bande de transport. Le tout à une vitesse parfois supérieure à 40 m/min. L’intégrateur a mis au point une caméra baptisée Reflex 3D, dopée avec des algorithmes également conçus en interne et brevetés. « Pour les applications les plus classiques, l’usage de l’intelligence artificielle n’est pas une nécessité, explique Héléna Henry, la responsable du marketing de Siléane. Des algorithmes de reconnaissance géométrique permettent de réaliser la tâche. » Il suffit à un opérateur de placer une pièce sous l’objectif de l’une des caméras de la zone de travail pour que le robot puisse reconnaître après un certain temps toutes les pièces semblables sur le tapis. Les choses se compliquent en revanche dans le cas de produits pouvant être déformés. « Dans cette situation, il faut que notre système puisse reconnaître différentes géométries pour un même produit. C’est là que l’apprentissage profond intervient en complément », précise Héléna Henry. Finalement, le robot se recale en temps réel par rapport aux informations envoyées par les caméras : il identifie le centre de gravité de l’objet, même déformé, pour le saisir au point de préhension le plus pertinent. Grâce à ce dispositif, Flowpick trouve de nouveaux débouchés dans le domaine pharmaceutique, notamment pour le conditionnement de poches de médicaments, et dans le tri des déchets ménagers pour le recyclage.
Finition de pièces
Fanuc Une fois les images de l’objet analysées et traitées par les algorithmes, la trajectoire du robot est calculée. Il peut alors ébavurer la pièce sans aide extérieure. (© Fanuc)
Des robots capables de réaliser seuls des tâches de finition de pièces, sans connaître à l'avance le produit à traiter ? C'est l'ambition du japonais Fanuc avec son procédé Image to points. Le roboticien a développé cette technologie fondée sur le traitement d'images pour faciliter l'ébavurage de pièces métalliques, une étape de finition exigeante sur le plan de la programmation et donc souvent peu rentable dans le cas des petites séries. Tout est parti d'un besoin en interne. « Nous utilisons nos propres robots pour la production de nos équipements, notamment afin d'éliminer des aspérités métalliques, produites lors de l'usinage des carters, dans le but de pouvoir poser des joints, explique Nicolas Couche, le responsable de la division robotique de Fanuc France. Comme nous avons beaucoup de références à traiter, il nous fallait une solution sans programmation. » Le procédé s'appuie sur un système de vision avancée, iRVision – une autre des spécialités de la société japonaise –, installé sur le bras. La caméra, associant prises de vue en 2D et 3D en fonction des applications, inspecte dans un premier temps la pièce. Puis des algorithmes de traitement de l'image isolent automatiquement les bords à ébavurer du reste de la pièce, générant un profil de la zone à travailler. Cette forme est échantillonnée pour obtenir des points de passage qui serviront à calculer la trajectoire du robot, sans l'aide d'un opérateur.
La précision de la finition est assurée par un capteur d'effort relié à l'outil d'ébavurage. «Avec cette solution, le robot n'a besoin d'aucune information sur les pièces, commente Nicolas Couche. Son système de vision réunit toutes les informations nécessaires pour remplir la tâche. » Après avoir fait ses preuves en interne, le système Image to points est en cours de déploiement chez les industriels, notamment dans des PME qui peuvent ainsi plus facilement robotiser leurs tâches de finition.
Le deep learning, champion de la reconnaissance
Si, dans la plupart des systèmes de vision, de « simples » algorithmes de reconnaissance de formes suffisent, les réseaux de neurones convolutifs (ou CNN pour convolutional neural networks) sont désormais utilisés pour affiner l’identification de produits aux formes complexes. Grâce à des processeurs de type GPU dédiés, les temps de calcul deviennent compatibles avec les temps de réaction de la robotique. L’apprentissage supervisé est souvent utilisé : l’algorithme est entraîné à l’aide d’images annotées par les humains. La simulation permet de raccourcir la durée d’apprentissage en générant automatiquement diverses représentations de l’objet à partir d’un jeu restreint d’images. Un outil de plus en plus indispensable pour réduire le délai de mise en place des lignes robotisées.



