Accueil Instrumentación les robots ont besoin de voir

les robots ont besoin de voir

 

Chaque année, les robots deviennent moins une star de cinéma de science-fiction et plus ancrés dans notre vie quotidienne. Le domaine de la robotique se développe et pas seulement dans les usines, mais aussi sur le marché des consommateurs. L'un des principaux obstacles à la poursuite de la croissance est que la plupart des robots sont encore aveugles. Ils ont peu ou pas de perception de l'environnement qui les entoure, une compétence que la plupart d'entre nous tenons pour acquise au quotidien. Nos yeux et notre cerveau ont la capacité de percevoir des choses avec des caractéristiques de profondeur, de texture et de couleur, tandis que nos yeux se concentrent et s'adaptent constamment à la lumière lorsque nous nous déplaçons. La vision artificielle donne aux robots la capacité de voir, et les logiciels d'aujourd'hui donnent aux robots la capacité de percevoir leur environnement, ouvrant la porte à un très large éventail d'applications de vision industrielle et de robotique.

 

L'une des utilisations les plus courantes de la vision artificielle dans les applications robotiques est la robotique guidée par la vision industrielle. Cela a toujours été utilisé dans les usines de production dans des domaines tels que l'assemblage et la manutention, où une caméra est utilisée pour acquérir une image, localiser une pièce ou une destination, puis envoyer les coordonnées au robot pour effectuer une sorte de fonction. , comme ramasser une pièce. L'ajout de la vision industrielle pour de telles applications permet à la machine d'être plus flexible. La même machine peut être utilisée pour plusieurs pièces, car elle peut voir de quelle pièce il s'agit et s'ajuster. L'extraction de pièces d'un cube est également plus facile, car la caméra permet de localiser une pièce avec une certaine orientation qui peut être manipulée par le bras robotique au milieu d'un lot de pièces du même type. L'avantage supplémentaire de l'utilisation de la vision par ordinateur comme guide est que les mêmes images peuvent être utilisées pour l'inspection en ligne des pièces manipulées. Ainsi, non seulement les robots sont plus flexibles, mais ils peuvent également produire des résultats de meilleure qualité. Cela peut également être fait à moindre coût car le système de vision artificielle peut, par exemple, détecter, prévoir et prévenir des événements tels que les embouteillages. Cependant, si un degré élevé de précision dans le mouvement est nécessaire, des composants tels que la caméra ou le système de mouvement peuvent être très coûteux, car de nombreux systèmes de vision robotique guidée utilisent une seule image au début de la tâche sans autre retour. L'utilisation d'une technique appelée asservissement visuel résout ce défi, puisqu'une caméra attachée ou proche du robot fournit un retour visuel continu pour corriger les petites erreurs de mouvements. Alors que l'utilisation de la vision artificielle robotique est courante dans les applications industrielles, elle devient de plus en plus courante dans l'espace embarqué. Un exemple de croissance a lieu dans le domaine de la robotique mobile. Les robots sortent de l'usine et se frayent un chemin chaque jour dans de nombreux aspects de notre vie, des robots de service qui parcourent les couloirs des hôpitaux locaux aux tracteurs autonomes qui labourent les champs. Presque tous les robots mobiles autonomes nécessitent des capacités d'imagerie sophistiquées, allant de l'évitement d'obstacles à la localisation visuelle et à la cartographie simultanées. Au cours de la prochaine décennie, le nombre de systèmes de vision industrielle utilisés par les robots autonomes devrait éclipser le nombre de systèmes utilisés par les bras robotiques à base fixe.

 

Une tendance croissante qui peut aider les robots à mieux percevoir leur environnement est la vision 3D. La technologie d'imagerie 3D a parcouru un long chemin depuis ses racines dans les laboratoires de recherche universitaires, et grâce aux innovations dans les capteurs, l'éclairage, et surtout, le traitement intégré, la vision 3D apparaît maintenant dans une grande variété d'applications, de l'extraction de une partie mixte avec plusieurs autres du même type par vision robotique guidée à la métrologie de haute précision de la robotique mobile. La dernière génération de processeurs peut désormais gérer les énormes ensembles de données et les algorithmes sophistiqués nécessaires pour extraire des informations en profondeur et prendre des décisions rapides. Les robots mobiles utilisent les informations de profondeur pour mesurer la taille et la distance des obstacles afin de planifier le chemin exact et d'éviter les obstacles. Les systèmes de vision stéréo peuvent fournir des informations 3D détaillées pour les applications de navigation et fonctionnent bien même dans des conditions d'éclairage changeantes. La vision stéréoscopique utilise deux ou plusieurs caméras séparées l'une de l'autre, mais regardant le même objet. En comparant les deux images, les informations de disparité et de profondeur peuvent être calculées à partir des informations 3D obtenues.

 

Bien que les performances accrues des processeurs embarqués aient permis l'émergence d'algorithmes pour des usages tels que la vision industrielle 3D en robotique, il existe encore un large éventail d'applications qui nécessitent encore plus de fonctionnalités. Un exemple est le domaine médical, où la chirurgie robotique et le contrôle laser sont étroitement synchronisés avec l'imagerie. Dans le cas de ces types d'applications de vision industrielle hautes performances, les FPGA (Field Programmable Gate Arrays) sont utilisés pour le prétraitement d'image ou les informations d'image sont utilisées comme rétroaction pour les applications de contrôle à grande vitesse. Les FPGA sont bien adaptés aux algorithmes de traitement d'image de type parallèle hautement déterministes qui synchronisent étroitement les résultats du traitement avec un système de mouvement ou robotique. Il existe des exemples d'utilisation dans le domaine médical, comme les opérations de chirurgie oculaire au laser, où de légers mouvements dans l'œil du patient sont détectés par la caméra et utilisés comme rétroaction pour l'autofocus à grande vitesse du système. . Les FPGA peuvent également aider dans des applications telles que la surveillance, la robotique et l'automobile en effectuant un suivi à grande vitesse et une analyse des particules.

 

La combinaison de la robotique et de la vision artificielle pose un défi logiciel important. Ces systèmes peuvent devenir assez complexes. Prenons l'exemple d'un robot mobile équipé d'un bras robotique industriel pour automatiser le ravitaillement des avions. Ici, nous avons non seulement les systèmes de robot et de vision artificielle, mais aussi les capteurs, les moteurs des roues, les éventuels pneus et les systèmes de sécurité. Même avec cet exemple, il est possible que vous soyez obligé d'utiliser vos propres langages, protocoles et même des environnements de développement qui ne s'étendent pas entre les différents sous-systèmes. El software debe ser el nexo de unión entre los aparatos eléctricos y mecánicos, pero a menudo al arquitecto le puede llevar más tiempo la comunicación entre los paquetes de software y los protocolos de comunicación que el IP a ejecutar realmente la tarea que se quería lograr en le premier endroit. Un langage de programmation de haut niveau est nécessaire pour simplifier la complexité des logiciels dans un environnement unique. L'un de ces langages est LabVIEW, qui combine vision, mouvement, FPGA, communication d'E/S et le reste de vos besoins de programmation dans un environnement de développement graphique. Ce type d'outil de haut niveau intègre tous les sous-systèmes nécessaires, tout en conservant une architecture évolutive, qui deviendra de plus en plus importante à mesure que les applications de vision industrielle et de robotique deviendront de plus en plus complexes.