• Recherche

Cybathlon : un dispositif de guidage innovant pour les personnes déficientes visuelles

Dans le cadre du Cybathlon 2024, une compétition internationale qui met en lumière les innovations technologiques pour les personnes en situation de handicap, Ludovic Saint-Bauzel et Fabien Vérité, enseignants-chercheurs à l’Institut des systèmes intelligents et de robotique (ISIR), unissent leurs expertises pour développer un dispositif de guidage destiné aux personnes aveugles et malvoyantes.

Entretien

Ce projet, conçu en collaboration avec des étudiants de Sorbonne Université, vise à rendre la navigation des personnes déficientes visuelles plus intuitive grâce à une approche sensorielle innovante. Ensemble, ils nous expliquent les défis, les avancées et les ambitions de ce dispositif.

Qu’est-ce qui vous a amené à concevoir un dispositif de retour kinesthésique pour personnes malvoyantes ?

Ludovic Saint-Bauzel : Enseignant-chercheur à l’ISIR, mes premières recherches portaient sur l’assistance à la marche et au lever. Cela m’a amené à m'interroger sur la communication kinesthésique, c’est-à-dire la façon dont les utilisateurs perçoivent physiquement un dispositif et interagissent avec la machine. Au fil de mes recherches, j’ai réalisé que ce concept pouvait être appliqué à la navigation des personnes malvoyantes et en 2020, j’ai développé un prototype. Le projet a pris un nouvel élan lorsque j’ai découvert l’existence du Cybathlon en 2022.

Fabien Vérité : Maître de conférences à l’ISIR depuis 2019, j’étudie l’haptique, c’est-à-dire la manière dont l'être humain perçoit son environnement par le toucher. Pendant ma thèse, j'ai travaillé sur le retour tactile pour améliorer l’équilibre des personnes. Actuellement, je continue de développer des systèmes de retour d’information tactile, notamment pour des instruments chirurgicaux.

Pourquoi avez-vous choisi de participer au Cybathlon 2024 ?

L. S.-B. : Le Cybathlon est une compétition qui réunit des personnes en situation de handicap utilisant des dispositifs technologiques pour accomplir des tâches du quotidien. Pour nous, cet évènement offre une occasion unique de tester notre technologie en conditions réelles. C’est aussi une opportunité de visibilité de nos avancées technologiques qui ont nécessité une forte collaboration interdisciplinaire au sein de l'université, en mobilisant plusieurs spécialités comme la robotique et l'informatique. Le Cybathlon nous permet également de mettre en avant le travail de nos étudiants, qui ont largement contribué au développement du dispositif.

F. V. : Pour moi, participer au Cybathlon est aussi une aventure personnelle. En 2016, j’ai assisté à la première édition à Zurich alors que j’étais enseignant dans le secondaire. Voir l’ambiance incroyable de la compétition et les solutions d’assistance proposées pour les personnes en situation de handicap m’a rappelé à quel point la recherche dans ce domaine pouvait avoir un impact direct sur la vie des gens. Cette expérience m'a donné envie de revenir à la recherche.

Pouvez-vous expliquer comment fonctionne la technologie que vous avez développée pour les personnes déficientes visuelles ?

F. V. : Notre dispositif repose sur la communication kinesthésique. Il s'agit de transmettre des informations par le mouvement et l'effort physique, comme lorsque l’on guide une personne en lui transmettant des informations par le mouvement et les gestes. La personne malvoyante est équipée d'un harnais sur lequel une caméra cartographie l’environnement en 3D en temps réel. Le système identifie les obstacles et calcule la meilleure trajectoire. Ensuite, grâce à un moteur qui exerce une légère pression sur la main de l’utilisateur, il est guidé dans la bonne direction. Par exemple, si la main est tirée vers la gauche, l’utilisateur sait qu'il doit tourner dans cette direction. Une fois que l’orientation est correcte, la pression cesse, permettant de continuer à avancer.

L. S.-B. : Contrairement aux cannes blanches ou intelligentes, qui signalent aux personnes ce qu'il faut éviter, notre dispositif indique directement où aller, rendant la navigation plus intuitive et moins fatigante. Notre approche permet une utilisation plus naturelle, similaire à celle du guidage par un chien-guide ou par une personne.

Quels sont les avantages du retour kinesthésique par rapport à d'autres technologies d’assistance visuelle, comme l’audio ou les vibrations ?

L. S.-B. : Notre méthode est proche du geste réel de guidage d'une personne aveugle. Le retour kinesthésique a l’avantage d’être beaucoup plus naturel. Il repose sur des sensations physiques que nous utilisons au quotidien, comme lorsqu’on guide quelqu’un en lui prenant le bras.

F. V. : C’est aussi une approche plus légère sur le plan cognitif. Nous avons constaté que cela rend la navigation plus fluide et moins fatigante. Le cerveau intègre mieux ce type de retour d’information car il correspond à une sensation naturelle d’effort.

 

Salomé Nashed, pilote de l'équipe A-eye, en entraînement ©Sorbonne Université

Quels défis techniques avez-vous rencontrés lors du développement du dispositif ?

L. S.-B. : L’un des plus grands défis a été de gérer la puissance de calcul. Au départ, nous utilisions un ordinateur très puissant, qui devait être alimenté par des batteries lourdes et encombrantes, ce qui rendait le dispositif difficile à porter. En optimisant les algorithmes et en utilisant des calculateurs de pointe très efficaces, nous avons réussi à alléger le dispositif, qui pesait initialement 10 kg et qui n’en pèse aujourd’hui plus que 2,5.

F. V. : Nous avons aussi dû résoudre des problèmes de détection visuelle. Par exemple, lors des épreuves impliquant un écran tactile, la caméra était perturbée par la lumière de l’écran, ce qui rendait difficile la détection des objets à sélectionner. Nos ingénieurs, Axel Lansiaux et Éloïse Szmatula, ont trouvé des solutions techniques pour que Salomé, notre pilote, puisse réaliser l’épreuve en un temps record, proche de celui d’une personne voyante.

Comment avez-vous collaboré avec les pilotes déficients visuels pour ajuster et affiner le dispositif en fonction de ses besoins spécifiques ?

L. S.-B. : Travailler avec Sébastien Hinderer, notre premier pilote, puis avec Salomé Nashed, a complètement changé notre vision du projet et nous a permis de revoir la perception du quotidien des personnes déficientes visuelles. En discutant avec eux, on a découvert des opportunités de développement auxquelles on n'aurait pas pensé seuls. Avec Salomé, qui est très volontaire et pleine d'énergie, nous testons régulièrement des astuces pour améliorer le dispositif. Elle propose des idées et son investissement important et son engagement à toute épreuve est un atout précieux.

F. V. : On croit beaucoup à la co-conception dans laquelle les utilisateurs sont impliqués dès le début dans le processus de développement. Sébastien, puis aujourd’hui Salomé nous ont fait des retours pour ajuster le harnais, le retour tactile, choisir la forme de la poignée, affiner les retours audio, etc. Salomé et notre doctorante ingénieure Éloïse Szmatula ont travaillé ensemble pendant des heures. À chaque étape, elles testaient ce qui fonctionnait, modifiaient les algorithmes ou changeaient l’entraînement. Ce travail d’ajustement continu a permis d’adapter la technologie à l'utilisateur pour que le dispositif soit à la fois performant et intuitif. Nous continuons à peaufiner ces aspects en vue de la compétition.

Comment les étudiants de Sorbonne Université ont-ils contribué à ce projet ?

L. S.-B. : Dès le début du projet, nous avons impliqué une centaine d'étudiants de divers masters principalement en robotique, en IA et en traitement d’image. Leur contribution a été essentielle, car environ 80 % du développement technique a été réalisé par eux. Axel Lansiaux, l'un de nos anciens étudiants, est maintenant ingénieur à plein temps sur le projet. Il a joué un rôle essentiel en supervisant plusieurs groupes de stagiaires et en assurant la coordination technique.

F. V. : Les étudiants ont travaillé de manière très professionnelle, avec une relation client-ingénieur, en respectant un cahier des charges précis. Nous sommes fiers de présenter lors de la compétition le résultat concret de leurs travaux, que ce soit en matière de reconnaissance visuelle, de développement technique ou d'intégration des solutions.

Comment envisagez-vous l'évolution future de cette technologie ?

L. S.-B. : Après la compétition, notre objectif est de rendre notre technologie d’assistance à la navigation open source. L’idée est qu’elle devienne accessible à tous, notamment aux fablabs, afin qu’elle puisse être reproduite et améliorée par d’autres.

F. V. : Nous avons également un projet de thèse avec Eloise Szmatula. Elle travaille sur la modélisation de l’interaction kinesthésique en étudiant comment notre système reproduit le guidage qu’une personne peut ressentir en étant guidée par une autre. Dans ce cadre, nous allons développer un partenariat avec l’Institut National des Jeunes Aveugles (INJA) pour tester notre dispositif auprès des jeunes et de leurs formateurs en mobilité, qui joueront les guides. Ces travaux permettront d’affiner notre dispositif pour qu’il soit encore plus performant et adapté à un usage quotidien pour les personnes déficientes visuelles.

Propos recueillis par Justine Mathieu


Vous pourrez suivre en direct les épreuves de l’équipe les 26 et 27 octobre (épreuves de qualification de 20h45 à 21h25 le 26 octobre, puis finale de la catégorie de 14h10 à 14h30 le 27 octobre).

 

Découvrez l'équipe A-eye

Présentation de l'équipe A-Eye pour le Cybathlon 2024