Les personnes sourdes non verbales vont-elles pouvoir se passer d’un traducteur – chez le médecin, par exemple – et gagner ainsi en autonomie ? C’est l’objectif d’un gant technologique utilisant une intelligence artificielle et imaginé par deux ingénieurs indiens. Une fois revêtu, leur prototype, truffé de capteurs de mouvements, traduit les signes d’une personne sourde en une voix qui sort d’un bracelet intégré au gant. La réponse orale de l’interlocuteur est, elle, transformée en texte, visible par la personne sourde sur le petit écran du bracelet.
« A terme, nous voulons que ce texte soit également traduit par des émojis ou des avatars effectuant des gestes en langue des signes », précise la coconceptrice Aishwarya Karnataki. « Selon l’OMS [Organisation mondiale de la santé], 466 millions de personnes dans le monde souffrent de troubles de la parole et de l’audition », plus que la population totale des Etats-Unis, du Canada, de l’Australie, de la Nouvelle-Zélande et du Royaume-Uni réunis, énumère-t-elle. « Nous voulons transformer radicalement l’accessibilité au monde de la communauté sourde et malentendante. »
Ce projet ambitieux s’est nourri d’une rencontre, à l’école primaire, entre Aishwarya, alors élève en 8e [l’équivalent du CM2] et un jeune garçon sourd, isolé dans la cour. Pour échanger, elle apprend les rudiments de la langue des signes. « Cela a été un déclic, explique-t-elle. Il fallait que je trouve un moyen pour combler ce fossé de communication. » Des études en ingénierie électronique et un stage de fin d’études sur une voiture robotisée commandée par des gestes plus tard, la voici à la tête de la start-up Covatrix, cofondée en 2021 avec Parikshit Sohoni. Ce spécialiste en données et intelligence artificielle a lui aussi été sensibilisé très tôt par sa tante, sourde, aux difficultés rencontrées dans cette communauté.
Cinquante gestes déjà reconnus
Au départ, se souvient Aishwarya Karnataki, « nous avons été confrontés à des obstacles algorithmiques pour interpréter précisément un large éventail de gestes en langue des signes dans des contextes et environnements variés ». Mais, après des mois de recherche durant lesquels les deux protagonistes ont cumulé différents emplois « alimentaires » tout en lançant « douze programmes pilotes avec plus de 1 000 parties prenantes à travers le pays », précise la start-upeuse, « le prototype a fait des progrès significatifs et reconnaît désormais cinquante gestes avec une précision de 98 % dans la langue des signes indienne ».
Il vous reste 40.76% de cet article à lire. La suite est réservée aux abonnés.