Depuis maintenant quelques années, la robotique collaborative nous permet de déployer des robots rapidement dans des environnements plus ou moins contrôlés. À l’aide de technique d’apprentissage kinesthésique, la démonstration d’un point dans l’espace ou d’un déplacement au robot est plus rapide que jamais. Par contre, il est encore difficile de démontrer une tâche complète à l’aide d’une telle méthode puisque le robot ne connaît que les points dans l’espace montré. Dans ce projet, nous avons développé un système permettant de démontrer une tâche d’insertion physiquement au robot et utiliser cette démonstration pour construire un programme répétant la tâche exécutée.
Dans un premier temps, nous avons développé un contrôle par admittance variable pour la démonstration de tâches d’insertion. Notre technique se distingue par sa capacité à ajuster la rigidité du contrôle lorsque le bras robotique se trouve en situation d’insertion d’objet. Dans un deuxième temps, nous étudions l’utilisation de l’apprentissage profond pour la détection et la localisation de tâches d’insertion à l’intérieur d’une démonstration complète. Nous avons utilisé les forces mesurées au poignet du robot pour déterminer si une tâche d’insertion a eu lieu pendant une démonstration. Finalement, nous avons développé un générateur de programme capable de construire une routine de robotique sur un robot Universal Robot. Ce générateur programme automatiquement les trajectoires ainsi que les techniques d’insertion à utiliser pour rejouer la démonstration.
For a few years now, collaborative robotics has allowed us to deploy robots quickly in more or less controlled environments. Using kinesthetic teaching techniques, demonstrating a point in space or moving the robot is faster than ever. On the other hand, it is still difficult to demonstrate a complete task using such a method since the robot only knows the points in the space shown this way. In this project, we developed a system to be able to demonstrate an insertion task to the robot and use this demonstration to build a program repeating the executed task.
First, we developed a variable admittance control for the demonstration of insertion tasks. Our technique distinguish itself by its ability to adjust the rigidity of the control when the robotic arm is in the action of inserting an object. Secondly, we studied the use of deep learning for the detection and localization of insertion tasks within a complete demonstration. We used the measured forces at the robot’s end effector to determine if an insertion task occurred during a demonstration. Finally, we developed a program generator capable of building a robotic routine on a Universal Robot. This generator automatically programs the trajectories as well as the insertion techniques to be used to replay the demonstration.