Dans la droite lignée du Big Data (ou mégadonnées), l’intelligence artificielle (IA) a largement animé les réflexions de l’industrie aéronautique tout au long de 2018. En fin d’année dernière, l’Association des Journalistes Professionnels de l’Aéronautique et de l’Espace (AJPAE) accueillait donc Virginie Wiels, directrice du département traitement de l’information et systèmes de l’Onera, et Marko Erman, directeur technique de Thales, pour offrir leur vision du sujet, entre potentiel réel d’innovation et nombreux fantasmes.
Largement à la mode depuis quelques années, l’IA est un sujet ancien. Thales a ainsi lancé un plan stratégique sur le sujet en 1989, et l’Onera s’y intéresse depuis plusieurs dizaines d’années également. Malgré cela, les deux intervenants, plutôt en harmonie, se sont notamment accordés sur le fait qu’il restait plusieurs jalons à passer avant que l’IA ne donne sa pleine mesure dans l’industrie aéronautique. C’est notamment le cas en ce qui concerne la certification de systèmes critiques relevant de l’IA dite « empirique » basée sur des algorithmes d’apprentissage.
Trois défis majeurs
« Il reste plein de questions scientifiques à régler autour de l’IA », note Virginie Wiels. Elle mentionne ainsi « trois défis importants et liés ». Le premier est « l’interaction entre l’homme et la machine intelligente. Il faut réussir à optimiser ce couple, alors que l’on s’aperçoit déjà que l’adaptation de l’homme face à des systèmes de plus en plus autonomes et complexe dans les cockpits est parfois compliquée et que cela peut poser des problèmes. Nous travaillons donc sur l’homme avec de l’ingénierie cognitive pour comprendre les réactions du cerveau face à cet afflux d’informations, puis de concevoir de nouveaux moyens d’interaction. »
Le deuxième défi est l’explicabilité, continue Virginie Wiels : « Pour l’instant avec les algorithmes d’apprentissage, nous savons faire des choses, mais nous ne savons pas comment cela marche. Dans des applications d’aide à la décision ou des applications critiques, nous allons avoir besoin d’être capables d’expliquer scientifiquement une information fournie par l’IA. »
Elle est suivie par Marko Erman : « Il y a tellement d’opérations combinées que nous n’avons pas l’explicabilité. » Il rappelle aussi que les résultats dépendent énormément de la qualité de l’apprentissage, évoquant avec humour le fait qu’il y aura besoin dans dix ans d’un ministre de l’éducation pour l’IA.
Pour la chercheuse, « une des pistes est d’utiliser l’autre forme d’IA, l’IA symbolique, qui formalise des connaissances et automatise des raisonnements, pour essayer de la marier avec les techniques d’apprentissage afin d’expliquer ce qu’elles font ».
La difficile question de la certification
Le dernier défi mentionnée par la chercheuse de l’Onera est la « certifiabilité » des techniques d’apprentissage : « Pour l’IA symbolique, il n’y a pas de problème. Pour la seconde famille, si nous ne pouvons pas expliquer un résultat, nous allons avoir du mal à dire qu’il est exact. D’autant qu’il est connu que les techniques d’apprentissage se trompent, avec beaucoup d’exemples de réponses complètement fausses. »
Virginie Wiels prend l’exemple d’Amazon, qui avait développé une IA pour un premier tri des CV pour son recrutement. La société, pourtant en pointe sur l’IA « grand public », s’est rendu compte que son algorithme éliminait systématiquement tous les femmes pour les postes informatiques.
Le problème se retrouve aussi sur le traitement d’images, explique-t-elle : « une variation d’un seul pixel entre deux images, indiscernable pour un humain, peut entraîner des réponses très différentes pour une IA. Ce sont des problèmes connus sur lesquels nous travaillons, mais si nous envisageons d’embarquer ce genre de technologies dans des systèmes critiques comme la perception embarquée, nous n’avons pas les moyens scientifiques de garantir les résultats et donc certifier ce type d’algorithme. C’est une question très compliquée à résoudre. »
L’Onera utilise l’IA dans de nombreux projet de recherche, comme avec ce drone dans le cadre du programme européen Inachus. © Onera / Inachus
Une difficulté en profondeur
« C’est un problème plus subtil que le simple apprentissage, approuve Marko Erman. Sur l’apprentissage profond, le deep learning, il y a beaucoup de couches de calcul. Et dans les couches intermédiaires, l’IA fait des approximations et des extractions de données pour arriver au résultat. Sauf que nous ne savons pas ce que fait exactement l’IA dans ces opérations là. Dans le traitement d’images, ce qui peut paraître invisible pour l’oeil humain va être très signifiant pour la machine. »
L’IA peut ainsi interpréter de façon biaisée certaines données d’apprentissage. « Nous ne pouvons pas faire confiance à ces techniques d’apprentissage, poursuit le directeur technique de Thales. S’il s’agit de nous conseiller un achat, il suffit de ne pas cliquer sur la proposition, mais s’il s’agit de dire à un pilote de tourner à gauche, c’est plus problématique. »
Cette certifiabilité est ainsi pour Marko Erman une étape décisive à franchir – la dernière d’une longue série – pour aller vers des avions plus autonomes. Et elle semble étroitement interconnectée aux deux premiers défis. Le directeur technique explique que le pilote doit pouvoir comprendre pourquoi il reçoit cette information pour l’accepter et donc que la machine puisse lui expliquer – ce qui rejoint les sujets de l’interface homme-machine et de l’explicabilité. « Il faut établir cette certification des résultats, mais aussi une confiance entre l’opérateur et la machine, sachant que l’homme va rester dans la boucle pour encore très longtemps, voire toujours », conclut-il.
Des enjeux propres à l’aéronautique
Marko Erman ajoute d’autres éléments à cette liste, à savoir les exigences de cybersécurité, de plus en plus prégnantes avec les avions connectés, de sûreté de fonctionnement et de temps réel. Sur ce dernier point, il déclare : « C’est autre chose que d’être rapide. Lorsque vous interceptez un missile, il faut tirer au bon moment et au bon endroit. C’est la différence. Pour vos courses, vous voulez être rapide. En avionique ou en défense, vous avez besoin d’être en temps réel. » Et il constate qu’aujourd’hui, ces contraintes ne sont pas résolues par les acteurs de l’IA du grand public. C’est donc sur elles que des acteurs comme Thales ou l’Onera se concentrent, avec le monde académique.
Le directeur technique estime ainsi que les acteurs de l’aéronautique doivent jouer le rôle d’innovateurs, et ne pas se contenter des travaux fournis par les géants du Web, car les enjeux et les données utilisées sont complètement différents. Il estime aussi que la connaissance de la structure neuronale d’une IA permet de faire des attaques plus ciblées, et donc que l’utilisation de structures publiques rend plus difficile l’exigence de cybersécurité et la garantie de la souveraineté des systèmes.