L’utilisation de l’intelligence artificielle et de la vision se développe considérablement dans l’industrie des drones, notamment pour la saisie ou le dépôt d’objets ou encore pour l’atterrissage. Le perchage de drone, étroitement lié à ces tâches, commence également à se développer. Cette faculté permettrait aux drones de réaliser de nouvelles tâches mais aussi de combler leurs inconvénients tels que leur faible durée de vol ou le fait qu’ils soient fragiles. Par exemple, cela assurerait à un drone de se poser en cas de fin de batterie ou de mauvaises conditions climatiques. Les techniques actuelles de perchage ou de saisie d’objet effectuées à partir de la vision artificielle et d’un système de préhension ajouté au drone, se basent seulement sur la détection d’objets. Les objets/supports, lors des tests, sont sélectionnés en avance par les chercheurs afin d’avoir une bonne concordance avec le préhenseur. Ainsi, dans le cas où le support possède une forme complexe ou encore des dimensions trop différentes par rapport à celles du préhenseur, le drone le détectera et essayera de s’y percher sans succès.
L’objectif de cette maîtrise recherche est de développer un système de détection d’objets, par vision par ordinateur, qui selon les caractéristiques du préhenseur du drone, détecte les objets, leur attribue un score de concordance et renvoie le support idéal. Le score de concordance, que nous avons établi et nommé "CSP" (Concordance Support-Préhenseur) dans ce mémoire, se détermine à partir de la comparaison entre l’intervalle d’ouverture du préhenseur et les dimensions réelles des objets. La réalisation d’une comparaison ainsi que l’utilisation d’un score de concordance pour la détermination d’un support adéquat est une procédure que nous avons élaborée.
Partant d’un algorithme de détection basé sur la classification et la segmentation des objets détectés, la solution proposée dans ce mémoire a été développée en 3 phases : 1. Entrainement supervisé du réseau de neurones de l’algorithme de détection pour de nouvelles classes d’objets adaptées au perchage de drone. 2. Conception d’un algorithme, permettant de réaliser une comparaison entre les dimensions des objets détectés et celles du système de préhension dans le but de déterminer le support idéal pour le perchage du drone. 3. Évaluation des performances du modèle de détection complet, regroupant les deux algorithmes, à partir de tests réalisés sur un ensemble d’objets avec des paramètres et des conditions d’environnement différents entre chaque test.
Cette évaluation a démontré la précision et la fiabilité de notre système dans la détermination du support idéal à partir de la vision artificielle. Nous avons effectué un ensemble de 36 tests avec pour chaque test un paramétrage différent. De plus, chaque test a été effectué avec un nombre de 10 répétitions soit avec une configuration des paramètres identique dans le but d’avoir des résultats plus fiables. Ces tests ont été réalisés avec une caméra ayant une résolution 640 × 480 et une carte graphique GTX 1080Ti (GPU). La performance globale de notre système obtient un taux de succès de 84.17 % dans la détermination du support idéal. Ce taux de succès atteint même les 100 % dans le cas d’une différence de diamètre d’au moins 20 mm entre les objets détectés. La vitesse d’exécution du modèle, dans le cas d’un seul objet détecté par image, prend en moyenne 0.42 seconde pour l’analyse d’une image, ce qui correspond à 2.38 fps. Le fait d’obtenir un temps d’exécution efficace dans le traitement de chaque objet permet ainsi de garder une fluidité dans la détection lors du déplacement de la caméra et ainsi d’éviter les mauvaises détections et/ou mauvaises segmentations.
The use of artificial vision and artificial intelligence in drones applications is experiencing rapid growth, particularly in pick and drop applications but also in drone landing. Drone perching, being closely linked to applications stated above, has also begun to emerge. This research would allow the drones to realize new tasks but also to mitigate their disadvantages such as their short flight time or their fragility. Current perching and object grasping approaches are carried out by utilizing artificial vision and robotic grippers integrated with the drones. The target objects or their handles are chosen in a way to match the geometry of the gripper. Thus, in case where supports have complex form or dimensions too differents in comparison with gripper dimensions, perching won’t be avaiblable.
The purpose of this study is to develop a detection system that uses computer vision to return ideal support for drone perching. The ideal support corresponds to the object with the best matching score. The matching score, that we have developed and called "CSP" (Concordance Support-Préhenseur) in this study, is determined from the comparison between the gripper opening and the real object dimension. The implementation of this comparison as well as the utilization of matching score to the determination of the best support is a method that we created.
The suggested solution in this study is based on a detection algorithm which uses the classification and segmentation of objects. The several stages of the uses method are enumerated as follows : 1. Supervised training of neural network detection algorithm for new objects classes adapted to drone perching. 2. Conception of an algorithm, allowing to realize a comparison between object dimensions and grasping system dimensions in order to determine the ideal support. 3. Evaluation of the global system performances thanks to tests performed on a set of objects.
This evaluation has shown the precision and the reliability of our system in the ideal support determination based on artificial vision. We used a set of 36 tests with, for each test, different parameter values and different environmental conditions. Moreover, each test has been performed with a number of 10 repetitions for a given configuration in the purpose to obtain more reliable results. These tests have been made using a camera with a resolution of 640 × 480 and a graphic processor unit GTX 1080Ti (GPU). The global performance of our system obtains a success rate of 84.17 % in the ideal support determination. This success rate even reaches 100 % in the case where the difference between the diameter of each object is at least 20 mm. The execution speed of this model, with only one detected object by image, takes on average 0.42 second for the analysis of one image, which corresponds to 2.38 fps. To maintain fluidity and thus to avoid wrong detections and/or segmentations during camera motion, an efficient execution time is needed in the treatment of each object.