Finition de pièces, dévracage et pick and place : quand la vision rend les robots intelligents

Avec le développement des systèmes de vision intelligents, les robots sont désormais capables d'accomplir des tâches qui leur étaient jusque-là hors d'atteinte. La possibilité de s'accommoder de flux de produits variés, mélangés ou déformés est au cœur des premières applications de robotique intelligente déployées dans les usines et les entrepôts d'e-commerce. Imageurs 2D, capteurs lidars et caméras stéréoscopiques permettent aux robots de mieux identifier la tâche à accomplir et de déterminer les trajectoires adéquates. Démonstration avec trois applications innovantes qui laissent le robot prendre les commandes.

Réservé aux abonnés
Intelligence par la vision
En calculant la durée de réflexion d'une lumière bleue projetée sur les pièces, la caméra d'Innodura identifie en détail le contenu de la caisse.

Dévracage

Depuis quelques années, les recherches associant systèmes de vision et robots se penchent sur l’une des applications les plus prometteuses de la robotique autonome : le dévracage 3D. Cette tâche, qui consiste à extraire un élément d’une caisse dans laquelle des pièces sont disposées aléatoirement, a longtemps été considérée comme un jalon majeur pour la robotique « intelligente ». La machine doit pouvoir reconnaître les objets dans des configurations imprévisibles et adapter automatiquement les trajectoires du robot en fonction de la tâche à accomplir. Cette application a été mise en avant ces dernières années par les entreprises d’e-commerce, comme Amazon, mais aussi par des industriels qui y voient un moyen plus efficace pour alimenter en composants les machines de production. La société française Innodura, située sur le campus de La Doua près de Lyon (Rhône), a lancé en 2019 un système dont la performance a récemment été saluée par le Centre technique des industries mécaniques (Cetim). Le système, aujourd’hui déployé chez de grands industriels comme Renault et Safran, a été mis au point en collaboration avec le Laboratoire d’informatique en image et systèmes d’information (Liris). Il repose sur une caméra stéréoactive, fournie par la société Sick, fixée sur le bras polyarticulé. Un faisceau de lumière bleue est projeté vers le bac contenant les pièces. La caméra, en réceptionnant la lumière réfléchie et en calculant le temps d’aller-retour, donne une représentation de l’enveloppe des objets. Des algorithmes de reconnaissance de la géométrie sont utilisés pour isoler les enveloppes des différents objets du vrac, mais également pour repérer les bords du contenant. « Avec ces informations, le robot calcule, seul, la trajectoire optimale pour saisir l’objet au bon point de préhension », explique Maxime Robin, le fondateur d’Innodura. Cette technologie est pour le moment séquentielle : le bras positionne dans un premier temps la caméra pour analyser le bac, puis il effectue son mouvement. La société souhaite poursuivre ses recherches pour obtenir une analyse en temps réel de l’environnement, notamment dans le cadre d’applications en robotique collaborative.

Pick and place

Intelligence par la visionSiléane
Intelligence par la vision Intelligence par la vision

Siléane a mis au point Flowpick, un système permettant au robot d’adapter en temps réel ses gestes à la disposition de pièces sur la bande de transport. (© Siléane)

Si le tri robotisé de produits placés sur un tapis de convoyage est bien connu dans les usines, notamment agroalimentaires, il était jusqu’à présent cantonné à des productions standardisées. Les robots et les systèmes de reconnaissance trouvent en effet leurs limites lorsque le flux à traiter est composé de produits dont la géométrie peut être variable. C’est le cas du tri de produits souples et du tri de déchets. La société Siléane, spécialisée dans l’intégration robotique, a choisi de relever ce défi. Son système Flowpick permet au robot d’adapter en temps réel et en boucle fermée ses trajectoires en fonction du comportement des produits défilant sur la bande de transport. Le tout à une vitesse parfois supérieure à 40 m/min. L’intégrateur a mis au point une caméra baptisée Reflex 3D, dopée avec des algorithmes également conçus en interne et brevetés. « Pour les applications les plus classiques, l’usage de l’intelligence artificielle n’est pas une nécessité, explique Héléna Henry, la responsable du marketing de Siléane. Des algorithmes de reconnaissance géométrique permettent de réaliser la tâche. » Il suffit à un opérateur de placer une pièce sous l’objectif de l’une des caméras de la zone de travail pour que le robot puisse reconnaître après un certain temps toutes les pièces semblables sur le tapis. Les choses se compliquent en revanche dans le cas de produits pouvant être déformés. « Dans cette situation, il faut que notre système puisse reconnaître différentes géométries pour un même produit. C’est là que l’apprentissage profond intervient en complément », précise Héléna Henry. Finalement, le robot se recale en temps réel par rapport aux informations envoyées par les caméras : il identifie le centre de gravité de l’objet, même déformé, pour le saisir au point de préhension le plus pertinent. Grâce à ce dispositif, Flowpick trouve de nouveaux débouchés dans le domaine pharmaceutique, notamment pour le conditionnement de poches de médicaments, et dans le tri des déchets ménagers pour le recyclage.

Finition de pièces

Intelligence par la visionFanuc
Intelligence par la vision Intelligence par la vision

Une fois les images de l’objet analysées et traitées par les algorithmes, la trajectoire du robot est calculée. Il peut alors ébavurer la pièce sans aide extérieure. (© Fanuc)

Des robots capables de réaliser seuls des tâches de finition de pièces, sans connaître à l'avance le produit à traiter ? C'est l'ambition du japonais Fanuc avec son procédé Image to points. Le roboticien a développé cette technologie fondée sur le traitement d'images pour faciliter l'ébavurage de pièces métalliques, une étape de finition exigeante sur le plan de la programmation et donc souvent peu rentable dans le cas des petites séries. Tout est parti d'un besoin en interne. « Nous utilisons nos propres robots pour la production de nos équipements, notamment afin d'éliminer des aspérités métalliques, produites lors de l'usinage des carters, dans le but de pouvoir poser des joints, explique Nicolas Couche, le responsable de la division robotique de Fanuc France. Comme nous avons beaucoup de références à traiter, il nous fallait une solution sans programmation. » Le procédé s'appuie sur un système de vision avancée, iRVision – une autre des spécialités de la société japonaise –, installé sur le bras. La caméra, associant prises de vue en 2D et 3D en fonction des applications, inspecte dans un premier temps la pièce. Puis des algorithmes de traitement de l'image isolent automatiquement les bords à ébavurer du reste de la pièce, générant un profil de la zone à travailler. Cette forme est échantillonnée pour obtenir des points de passage qui serviront à calculer la trajectoire du robot, sans l'aide d'un opérateur.

La précision de la finition est assurée par un capteur d'effort relié à l'outil d'ébavurage. «Avec cette solution, le robot n'a besoin d'aucune information sur les pièces, commente Nicolas Couche. Son système de vision réunit toutes les informations nécessaires pour remplir la tâche. » Après avoir fait ses preuves en interne, le système Image to points est en cours de déploiement chez les industriels, notamment dans des PME qui peuvent ainsi plus facilement robotiser leurs tâches de finition.

Le deep learning, champion de la reconnaissance

Si, dans la plupart des systèmes de vision, de « simples » algorithmes de reconnaissance de formes suffisent, les réseaux de neurones convolutifs (ou CNN pour convolutional neural networks) sont désormais utilisés pour affiner l’identification de produits aux formes complexes. Grâce à des processeurs de type GPU dédiés, les temps de calcul deviennent compatibles avec les temps de réaction de la robotique. L’apprentissage supervisé est souvent utilisé : l’algorithme est entraîné à l’aide d’images annotées par les humains. La simulation permet de raccourcir la durée d’apprentissage en générant automatiquement diverses représentations de l’objet à partir d’un jeu restreint d’images. Un outil de plus en plus indispensable pour réduire le délai de mise en place des lignes robotisées.

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Ils recrutent des talents
Les webinars
Les services L'Usine Nouvelle
Détectez vos opportunités d’affaires
Trouvez des produits et des fournisseurs