Les personnes vivant avec des incapacités aux membres supérieurs doivent surmonter des défis importants au quotidien. L’utilisation d’aides techniques permet à ces personnes de regagner ou d’aller chercher une certaine autonomie. Parmi ces aides techniques, les bras robotisés d’assistance peuvent être utilisés pour augmenter l’autonomie de leur utilisateur tout en réduisant le temps d’assistance requis par une personne aidante. Le but de cette maîtrise est de rendre le contrôle de bras robotisés d’assistance plus efficace en réduisant les efforts requis par les utilisateurs tout en diminuant le temps demandé pour accomplir des tâches. L’objectif est de développer une interface de contrôle de reconnaissance vocale afin d’y arriver.
Deux interfaces de contrôle ont été développées : la première utilise des algorithmes d’apprentissage machine classique alors que la seconde a recours à des modèles d’apprentissage profond. Les deux interfaces emploient un microphone placé sur un casque d’écoute pour faire l’acquisition de la voix de l’utilisateur. Le signal sonore est ensuite traité sur un ordinateur où le modèle produit une prédiction du mot prononcé par l’utilisateur et l’action correspondante est alors exécutée par le bras JACO. Chaque algorithme est conçu pour reconnaître les mots d’un dictionnaire de commandes finies relié à des actions que peut effectuer le bras JACO (p. ex. se déplacer vers l’avant, l’arrière, fermer les doigts). La faible robustesse au bruit ambiant du premier modèle ainsi que sa dépendance à la voix de l’utilisateur ont mené au développement du second modèle. Ce deuxième modèle ne requiert plus que l’utilisateur fournisse plusieurs enregistrements de chaque mot en guise d’exemple et les fausses détections dues au bruit sont réduites à un niveau négligeable. Les deux modèles développés ont été testés avec des sujets sains pour mesurer la performance des modèles et évaluer leur niveau de facilité d’utilisation.
People living with upper limb disabilities face important challenges to accomplish their daily living activities. The use of assistive devices allows these people to regain or seek a certain autonomy. Among these technical aids, it has been shown that the use of robotic assistance arms can increase the autonomy of their user while reducing the assistance time required by a caregiver. The goal of this master is to make the control of assistive arms more efficient by reducing the efforts and time required to accomplish a task. The objective is to develop the vocal control interface in order to reach this goal.
Two control interfaces have been developed: the first one uses classical machine learning algorithms whereas the second one leverages deep learning models. Both interfaces employ a headset with a microphone that acquires the raw voice signal of the user. A computer then processes the signal where the model make a prediction of the spoken word and the corresponding action is executed by the JACO arm. Each algorithm is designed to recognize the words from a limited dictionary of commands that the JACO can execute (e.g., move forward, backward, close fingers). The low robustness to ambient noise of the first model as well as its dependence on the user’s voice led to the development of the second model. This second model no longer requires the user to provide multiple records of each word as an example and false detections due to noise are reduced to a negligible level. Both models developed have been tested with able-bodied subjects in order to assess the models performance and measure their ease of use.