Projet ACDC : un système de reconnaissance vocale pour l’avion militaire du futur
Le projet ACDC (Audio Cockpit Denoising for voice Command) a pour objectif de concevoir un système de commande vocale performant pour les avions de l’armée française.
Porté par la Direction Générale des Armées dans le cadre de l’initiative Man Machine Teaming, ce partenariat fructueux entre Dassault Aviation, Thalès Avionics et le Loria (1) a été mis en avant lors du Forum Innovation Défense organisé par le Ministère des Armées, puis sélectionné parmi de nombreux projets pour être présenté à Madame Florence Parly, Ministre des Armées, en décembre dernier.
La commande vocale pour des avions à la pointe de la technologie
La loi de programmation militaire place l’innovation au cœur de sa stratégie. Dans le cadre de la fabrication du prochain avion de combat à l’horizon 2030, le Ministère des Armées prévoit un avion connecté et doté de technologies performantes.
Seuls à bord de leur cockpit, les pilotes de l’armée exécutent de multiples tâches simultanément et ont les deux mains sur le manche et la manette de gaz. Demander la distance jusqu’au prochain point de ravitaillement, commander d’afficher la carte tactique, s’informer sur la distance qui les sépare de leur cible : les pilotes sont en interaction constante avec le système. Alors comment effectuer ces commandes tout en gardant une attention optimale ? L’utilisation d’un système qui obéit à la voix s’avère être la réponse la plus appropriée à ces besoins.
Le défi : atténuer le bruit pour une reconnaissance vocale performante
L’enjeu majeur dans la conception de ce système est d’atténuer les bruits parasites pour une reconnaissance performante des commandes du pilote. En effet, le cockpit de l’avion est envahi par les sons du moteur, les bruits aérodynamiques, des vibrations qui peuvent causer des interférences avec les paroles de ce dernier.
Dans un contexte où la moindre erreur pourrait être fatale, il est impératif d’atténuer, voire de faire disparaître ces bruits de fond.
C’est sur ce point qu’Irina Illina, enseignante-chercheuse à l’Université de Lorraine et Dominique Fohr, chargé de recherche CNRS dans l’équipe Multispeech (CNRS, Inria, Université de Lorraine), ont amené leur expertise en traitement de la parole :
L’équipe a développé des modèles fondés sur les réseaux de neurones profonds pour séparer le bruit de la parole et a ensuite évalué ces modèles dans différentes conditions expérimentales.
Ces outils ont été enrichis par un module sémantique innovant afin de reconnaître les mots en fonction de leur sens et les replacer dans leur contexte, grâce à des représentations sémantiques.
En plus du bruit, plusieurs contraintes ont dû être prises en compte dans la conception du logiciel :
Défis relevés pour nos chercheurs, fiers d’avoir participé à un projet novateur de grande envergure stratégique. Ce programme de 18 mois s’est terminé fin 2020 et les résultats présentés aux partenaires sont prometteurs.
En savoir plus
- Plus d’informations sur l’initiative Man Machine Teaming
- Page de l’équipe Multispeech : multispeech.loria.fr
- Vidéo du Forum Innovation Défense, qui s’est déroulé du 2 au 4 décembre 2020, présentation du projet et intervention de Dominique Fohr à 55’’
Laboratoire lorrain de Recherche en Informatique et ses Applications (CNRS / Université de Lorraine / Inria)