Cobot et vision industrielle : comment automatiser le pick & place et l’inspection en ligne
L’association d’un robot collaboratif et d’un système de vision industrielle n’est plus réservée aux grandes lignes de production automatisées. Aujourd’hui, cette combinaison s’impose progressivement dans des ateliers de taille intermédiaire, portée par la baisse des coûts des capteurs et la maturité des solutions cobotiques. Pick & place guidé, assemblage assisté, contrôle en ligne : ces applications concrètes illustrent ce que peut apporter un cobot « voyant » dans un environnement de production réel.
Ce que change la vision pour un cobot
Un cobot sans vision opère dans un espace défini, selon des trajectoires fixes. Il reproduit fidèlement ce qu’il a été programmé à faire, à condition que la pièce soit toujours au même endroit. Dès que les conditions varient (pièces en vrac, orientations aléatoires, formats changeants), le système atteint ses limites.
Cobot avec vision embarquée (© universal-robots.com)
L’ajout d’une caméra industrielle couplée à un logiciel de traitement d’image modifie cette équation. Le robot peut désormais :
- Localiser une pièce dans son référentiel, même si sa position n’est pas parfaitement reproductible
- Identifier une référence parmi plusieurs (lecture de datamatrix, distinction par forme ou couleur)
- Vérifier un état avant ou après une opération (présence de composant, état de surface, conformité dimensionnelle)
Cette capacité à percevoir l’environnement rend le système bien plus tolérant aux aléas de production, sans nécessiter une préparation mécanique lourde en amont.
Pick & place guidé : le cas d'usage le plus répandu
Le pick & place guidé par vision est probablement l’application cobotique la plus déployée sur le terrain. Le principe est simple : une caméra fixe ou embarquée sur le bras capture l’image de la zone de prise, un algorithme détecte la position et l’orientation de la pièce, puis transmet les coordonnées corrigées au contrôleur du robot.
Dans la pratique, cela permet d’alimenter une ligne depuis un bac de pièces en vrac, sans convoyeur orienteur ni reprise manuelle. Le gain opérationnel est réel : suppression d’un poste de manutention répétitif, cadence régulière, réduction des erreurs de placement.
Des intégrations basées sur Universal Robots ou FANUC couplées à des caméras COGNEX ou KEYENCE proposent ce type d’architecture en standard. Le temps d’intégration varie typiquement de deux à cinq jours pour un cas d’usage bien défini, avec des outils de calibration semi-automatique intégrés aux logiciels constructeurs.
Assemblage assisté : guider sans contraindre
Dans les opérations d’assemblage, la vision industrielle intervient différemment. Il ne s’agit plus uniquement de localiser une pièce, mais de vérifier que chaque étape s’est correctement déroulée avant de passer à la suivante.
Un cobot équipé d’une caméra peut, par exemple :
- Vérifier la présence et l’orientation d’un composant avant insertion
- Contrôler le positionnement d’un joint, d’une vis ou d’un clip
- Valider un sous-ensemble avant transfert vers la station suivante
Dans ce type de cellule, l’opérateur humain conserve souvent les tâches de finition ou de décision complexe, tandis que le cobot prend en charge les étapes répétitives et le contrôle intermédiaire. Cette répartition réduit les non-conformités sans alourdir la charge cognitive de l’opérateur.
Un sous-traitant automobile américain utilisant un UR10 équipé d’une caméra de vision pour l’assemblage de sous-ensembles moteur a rapporté atteindre 100 % de conformité sur la séquence de montage concernée, contre des taux variables lors de la réalisation manuelle.
Contrôle qualité en ligne : l'inspection sans arrêt de cadence
L’inspection visuelle automatisée couplée à un cobot constitue un cas d’usage en fort développement. Le cobot positionne la pièce ou déplace la caméra selon une trajectoire programmée, permettant d’inspecter plusieurs faces sans intervention humaine.
Les contrôles réalisables comprennent :
- Détection de défauts de surface (rayures, éclats, porosités)
- Vérification dimensionnelle par triangulation laser ou stéréovision
- Lecture de codes gravés ou imprimés (traçabilité)
- Tests fonctionnels simples (présence d’une ouverture, état d’un contact)
Contactez nos experts pour réduire vos non-conformités et pénibilité.
La norme ISO 10218-2, révisée en 2025, encadre les exigences de sécurité pour les systèmes robotiques collaboratifs, notamment en matière d’évaluation des risques pour les cellules intégrant des périphériques comme les systèmes de vision. Sa prise en compte dès la conception de la cellule est indispensable pour une mise en service conforme.
Limites et contraintes à ne pas sous-estimer
L’intégration d’un cobot avec vision n’est pas sans difficultés. Plusieurs points méritent une attention particulière avant de se lancer.
Les conditions d’éclairage jouent un rôle déterminant. Une lumière ambiante variable ou des reflets sur les pièces peuvent dégrader significativement les performances du système. Prévoir un éclairage dédié (éclairage annulaire, dôme diffusant) est souvent indispensable.
La complexité des pièces influe directement sur le temps de développement. Un cobot peut localiser rapidement des pièces simples et contrastées. En revanche, des pièces brillantes, transparentes ou aux formes peu discriminantes nécessitent des algorithmes plus élaborés et un temps de paramétrage plus long.
La cadence atteignable doit être évaluée réalistement. Le temps de traitement de l’image ajoute un délai au cycle robotique. Pour des cadences élevées (au-delà de 20 pièces par minute), des caméras hautes vitesses et des cartes de traitement dédiées sont nécessaires, ce qui impacte le budget.
La maintenance du système vision est souvent sous-estimée : encrassement des optiques, drift de calibration, mises à jour logicielles. Un protocole de vérification périodique doit être défini dès le départ.
Conclusion
L’intégration d’un système de vision sur un cobot ouvre des perspectives concrètes pour le pick & place en vrac, l’assemblage guidé et l’inspection en ligne. Ces applications sont aujourd’hui accessibles à des ateliers de taille modeste, grâce à des solutions clés en main proposées par les principaux fabricants de robots collaboratifs (Universal Robots, FANUC, OMRON) et des éditeurs spécialisés en vision (COGNEX, KEYENCE, IDS Imaging).
La réussite d’un projet de ce type repose sur une définition précise du cas d’usage, une attention particulière aux conditions d’environnement optique, et une intégration respectueuse des normes de sécurité en vigueur. Une approche par pilote sur une cellule simple reste la voie la plus sûre pour valider le concept avant un déploiement à plus grande échelle.