On prête beaucoup de bienfaits à l’intelligence artificielle (IA) générative. A en croire ses fervents promoteurs, cette technologie dont on peine encore à mesurer l’entièreté du potentiel moins de deux ans après le lancement du robot conversationnel ChatGPT aurait, entre autres, le pouvoir de permettre aux personnes sourdes et malentendantes de communiquer plus facilement avec leurs entourages, à l’école ou au travail.
C’est en tout cas que veulent croire des dizaines de chercheurs, de développeurs et d’entrepreneurs. Ici, une start-up propose une adaptation de sites Web en langues des signes britannique ou américaine, grâce à un avatar humain généré par IA ; là, une plate-forme commercialise une solution de sous-titrage automatique pour les personnes sourdes ; ici encore, une association cherche à créer une application de traduction afin de faciliter les échanges entre personnes signantes et entendantes… Pour l’heure, les porteurs de ces projets peinent toutefois à appréhender complètement les subtilités des langues des signes et de ce que certains appellent la « culture sourde ».
« Pas assez de données sur les langues des signes »
Langue des signes française (LSF), langue des signes américaine, langue des signes allemande… Il existe à travers le monde des dizaines de langues des signes, chacune correspondant à des ensembles de codes différents. Une première difficulté pour qui veut entraîner des outils de communication dopés à l’IA à destination de ce public handicapé, selon la développeuse Emmanuelle Aboaf. « Chaque pays a sa propre façon de procéder, d’analyser les données, de capturer sa langue des signes : cela complique l’apprentissage par l’intelligence artificielle », note la Française, elle-même sourde de naissance et engagée en faveur de l’accessibilité par le numérique.
Ces langages visuels et gestuels nationaux comme la LSF, au sein desquelles on trouve même des spécificités régionales, ne cessent d’être enrichis avec le temps. Développer un outil capable de reconnaître les signes nécessite donc de créer et d’actualiser d’immenses bases de données. C’est ce à quoi s’attelle Davy Van Landuyt, chef de projet au sein de l’Union européenne des sourds, depuis trois ans. Cette organisation non gouvernementale, qui représente les sourds de 31 pays européens, a obtenu de l’Union européenne le financement, de 2021 à 2023, de deux projets de traducteurs mobilisant l’IA générative : SignON et Easier.
Or, c’est précisément sur la constitution de bases de données d’entraînement que butent ces initiatives, toujours en phase de recherche et développement. « Le plus gros problème est qu’il n’y a pas assez de données sur les langues des signes pour l’apprentissage automatique de l’IA, constate Davy Van Landuyt. Nous sommes obligés de travailler avec des données qui couvrent des milliers de phrases provenant de domaines limités alors que, par exemple, Google travaille avec des centaines de millions de phrases pour Google Translate. »
Il vous reste 57.3% de cet article à lire. La suite est réservée aux abonnés.