Où docteurs et entreprises se rencontrent
Menu
Connexion

Vous avez déjà un compte ?

Nouvel utilisateur ?

Intelligence Artificielle Neuro-Symbolique pour une Aviation Sûre et Fiable

ABG-127957 Stage master 2 / Ingénieur 6 mois Gratification (5 - 6 months)
16/01/2025
Logo de
Laboratoire d'Ingénierie des Systèmes de Versailles (LISV)
Velizy Ile-de-France France
  • Informatique
  • Science de la donnée (stockage, sécurité, mesure, analyse)
  • Sciences de l’ingénieur
Intelligence artificielle, Neuro-symbolique, Explicabilité, Sécurité aérienne, Graphe de connaissances

Établissement recruteur

Ce stage est financé par l’Institut d’Aéronautique et d’Astronautique de l’Université Paris Saclay

Description

Abstract

(Français)

L’intégration de l’intelligence artificielle (IA) dans l’aviation pose des défis critiques liés à la sécurité, à la transparence et à la confiance. Ce projet explore l’utilisation de l’intelligence artificielle neuro-symbolique (NSAI) pour répondre à ces enjeux en combinant la puissance prédictive des réseaux neuronaux avec l’interprétabilité du raisonnement symbolique. En s’appuyant sur l’ontologie NASA Air Traffic Management Ontology (ATMONTO), un graphe de connaissances sera développé pour améliorer l’explicabilité des décisions prises par les systèmes d’IA. Cette approche hybride vise à garantir des pratiques aéronautiques plus sûres, conformes aux règlementations, et à améliorer la collaboration entre humains et machines. En outre, le projet examine des techniques d’apprentissage basé sur des graphes, comme les Graph Kolmogorov-Arnold Networks (GKAN), pour améliorer la scalabilité et la précision des tâches liées à l’aviation. L’objectif final est de créer un cadre robuste pour des applications d’IA sûres, dignes de confiance et respectueuses de l’environnement dans l’aviation.

 

Mots-clés : Intelligence artificielle, Neuro-symbolique, Explicabilité, Sécurité aérienne, Graphe de connaissances.

 

 

(English):

The integration of Artificial Intelligence (AI) in aviation poses critical challenges related to safety, transparency, and trust. This project explores the use of Neuro-Symbolic Artificial Intelligence (NSAI) to address these issues by combining the predictive power of neural networks with the interpretability of symbolic reasoning. Leveraging the NASA Air Traffic Management Ontology (ATMONTO), a knowledge graph will be developed to enhance the explainability of AI systems' decisions. This hybrid approach aims to ensure safer aviation practices, compliance with regulations, and improved collaboration between humans and machines. Additionally, the project investigates novel graph-based learning techniques, such as Graph Kolmogorov-Arnold Networks (GKAN), as a supporting component to improve scalability and accuracy in aviation-related tasks. The ultimate goal is to create a robust framework for safe, trustworthy, and environmentally sustainable AI applications in aviation.

 

Keywords: Artificial Intelligence, Neuro-Symbolic, Explainability, Aviation Safety, Knowledge Graph.

 

 

 

Description 

(Français)

 

Introduction :

L’intelligence artificielle (IA) a transformé de nombreuses industries en offrant des outils puissants pour l’automatisation, l’analyse de données et la prise de décision. Cependant, son application dans l’aviation présente des défis uniques en raison des exigences critiques de ce secteur en matière de sécurité, de transparence et de conformité à des normes réglementaires strictes. Bien que les techniques d’apprentissage profond (DL) aient connu un grand succès dans des domaines comme la reconnaissance d’images et le traitement du langage naturel, leur nature opaque, souvent qualifiée de « boîte noire », les rend inadaptées aux systèmes de sécurité critiques nécessitant explicabilité et responsabilité (Gunning et al., 2019).

 

L’aviation, étant l’une des industries les plus sensibles en termes de sécurité, exige des systèmes d’IA capables non seulement de fournir des prédictions précises mais aussi d’expliquer clairement ces prédictions aux opérateurs humains. Les modèles d’IA actuels, en particulier ceux basés sur l’apprentissage profond, excellent dans le traitement de grandes quantités de données et l’identification de schémas complexes. Cependant, ils peinent à expliquer leurs processus décisionnels. Par exemple, bien qu’un modèle DL puisse recommander un itinéraire de vol ou détecter une panne potentielle, il est souvent incapable de justifier pourquoi ces actions sont suggérées. Cette absence de transparence peut générer une méfiance parmi les opérateurs et les régulateurs, compromettant ainsi la sécurité et la conformité (Keller, 2017 ; Gunning et al., 2019).

 

L’explicabilité est devenue un point central dans le domaine de l’IA, en particulier pour les secteurs critiques comme l’aviation. Gunning et al. (2019) soulignent que l’intelligence artificielle explicable (XAI) est essentielle pour instaurer la confiance et garantir que les systèmes d’IA respectent les exigences réglementaires. Pour répondre à ce besoin, l’intelligence artificielle neuro-symbolique (NSAI) s’impose comme une approche prometteuse. En combinant la puissance prédictive des réseaux neuronaux et la rigueur logique et explicative du raisonnement symbolique, cette approche hybride permet aux systèmes d’IA de fournir des explications explicites et basées sur des règles, tout en maintenant un haut niveau de précision.

 

Rôle des Ontologies et des Graphes de Connaissances :

Les ontologies jouent un rôle clé dans le raisonnement symbolique en permettant de représenter formellement les entités, les relations et les règles propres à un domaine. L’ontologie NASA Air Traffic Management Ontology (ATMONTO) constitue une ressource essentielle pour modéliser des concepts spécifiques à l’aviation, tels que la gestion du trafic aérien, les équipements et les contraintes réglementaires (Keller, 2017). Ce projet vise à exploiter ATMONTO pour construire un graphe de connaissances capable de soutenir un raisonnement sémantique et d’améliorer l’explicabilité des systèmes d’IA.

 

Un graphe de connaissances dérivé d’ATMONTO peut servir d’épine dorsale aux processus décisionnels en reliant les prédictions à des représentations sémantiquement riches des connaissances en aviation. En intégrant des règles et des relations propres au domaine, cette approche permet de surmonter les limitations des modèles « boîte noire » en fournissant des justifications explicites et compréhensibles pour des décisions telles que le déroutement de vols ou la prédiction des besoins de maintenance (Keller, 2017).

 

Lacune de Recherche et Objectifs :

Malgré les avancées dans les méthodes d’apprentissage basées sur les graphes, comme les réseaux de convolution de graphes (Graph Convolutional Networks, GCNs), qui se sont révélées efficaces pour traiter des données structurées (Kipf & Welling, 2017), leur adoption dans l’aviation reste limitée. De plus, des développements récents dans les architectures basées sur les graphes, telles que les réseaux Graph Kolmogorov-Arnold (GKAN), ont montré un potentiel pour améliorer la scalabilité et la précision (Liu et al., 2024). Cependant, ces méthodes n’ont pas encore été intégrées dans des cadres de raisonnement symbolique pour les domaines critiques tels que l’aviation.

 

Ce projet vise à combler cette lacune en développant un cadre robuste d’IA neuro-symbolique qui intègre ATMONTO et des techniques avancées d’apprentissage sur graphes. Les principaux objectifs incluent :

 

 

  1. Construire un graphe de connaissances à partir d’ATMONTO pour permettre un raisonnement sémantique et des prédictions explicables.
  2. Exploiter des méthodologies avancées d’apprentissage sur graphes, comme les GKAN, pour améliorer la scalabilité et la précision. 
  3. Valider le cadre proposé dans des scénarios réels d’aviation, incluant la gestion du trafic aérien et la détection d’anomalies.
  4. En répondant à ces défis, ce cadre proposé établira une base solide pour des applications d’IA sûres, transparentes et dignes de confiance dans le secteur de l’aviation.

 

 

Bibliographic references:

 

Keller, RM (2017): The NASA Air Traffic Management Ontology: Technical Documentation. NASA.

Gunning, D., et al. (2019): Explainable Artificial Intelligence (XAI). Science Robotics, 4(37), eaay7120.

Kipf, TN, & Welling, M. (2017): Semi-Supervised Classification with Graph Convolutional Networks. ICLR.

Liu, Z., et al. (2024): KAN: Kolmogorov-Arnold Networks. arXiv:2404.19756.

 

 

Description 

(English)

 

Introduction:

Artificial Intelligence (AI) has revolutionized many industries, providing powerful tools for automation, decision-making, and predictive analysis. However, its application in aviation presents unique challenges due to the sector's critical requirements for safety, transparency, and adherence to strict regulatory standards. Despite the success of deep learning (DL) techniques in domains like image recognition and natural language processing, their "black-box" nature makes them unsuitable for safety-critical systems that demand explainability and accountability (Gunning et al., 2019).

Aviation, being one of the most safety-critical industries, requires AI systems that not only produce accurate predictions but also offer human-understandable justifications for their decisions. Current AI models, particularly those based on deep learning, excel at identifying patterns and making predictions from large datasets. However, they struggle to explain their decision-making processes. For example, while a DL model might recommend a flight reroute or detect a potential system failure, it often cannot provide the reasoning behind these suggestions. This lack of transparency can lead to mistrust among operators and regulators, ultimately jeopardizing safety and compliance with aviation standards (Keller, 2017; Gunning et al., 2019).

Explainability has become a focal point in the field of AI, especially in safety-critical domains like aviation. Gunning et al. (2019) highlight that Explainable AI (XAI) is essential to building trust and ensuring that AI systems align with regulatory requirements. Addressing this need, Neuro-Symbolic Artificial Intelligence (NSAI) emerges as a promising approach by combining the predictive power of neural networks with the interpretability and logical rigor of symbolic reasoning. This hybrid framework allows AI systems to provide explicit, rule-based explanations for their predictions while maintaining high levels of accuracy.

Role of Ontologies and Knowledge Graphs:

Ontologies are instrumental in symbolic reasoning, enabling formal representations of domain-specific entities, relationships, and rules. The NASA Air Traffic Management Ontology (ATMONTO) offers a comprehensive framework for modeling aviation-specific concepts, including air traffic flow, equipment, and regulatory constraints (Keller, 2017). This project aims to leverage ATMONTO to construct a knowledge graph that supports semantic reasoning and enhances explainability in AI systems.

A knowledge graph built from ATMONTO can act as the backbone for decision-making processes, linking predictions to semantically rich representations of aviation knowledge. By embedding domain-specific rules and relationships, this approach addresses the limitations of "black-box" AI models, enabling explicit and interpretable justifications for decisions such as rerouting flights or predicting maintenance requirements (Keller, 2017).

Research Gap and Objectives:

While advancements in graph-based learning methods, such as Graph Convolutional Networks (GCNs), have demonstrated significant potential in handling structured data (Kipf & Welling, 2017), their adoption in aviation remains underexplored. Furthermore, recent developments in graph-based architectures like Graph Kolmogorov-Arnold Networks (GKAN) have shown promise in improving scalability and accuracy (Liu et al., 2024). However, these methods have yet to be integrated with symbolic reasoning frameworks in safety-critical domains such as aviation.

This project aims to address this gap by developing a robust Neuro-Symbolic AI framework that integrates ATMONTO and advanced graph-based learning techniques. The primary objectives include:

  • Constructing a knowledge graph from ATMONTO to enable semantic reasoning and explainable predictions.
  • Leveraging state-of-the-art graph learning methodologies, such as GKAN, to enhance scalability and accuracy.
  • Validating the framework in real-world aviation scenarios, including air traffic management and anomaly detection.
  • By addressing these challenges, the proposed framework seeks to establish a foundation for safe, transparent, and trustworthy AI applications in aviation.

 

References:

 

Keller, RM (2017): The NASA Air Traffic Management Ontology: Technical Documentation. NASA.

Gunning, D., et al. (2019): Explainable Artificial Intelligence (XAI). Science Robotics, 4(37), eaay7120.

Kipf, TN, & Welling, M. (2017): Semi-Supervised Classification with Graph Convolutional Networks. ICLR.

Liu, Z., et al. (2024): KAN: Kolmogorov-Arnold Networks. arXiv:2404.19756.

 

Programme de travail proposé :

 

 

  1. Revue de la littérature et état de l’art : Analyse des approches existantes en intelligence artificielle neuro-symbolique pour l’aviation.
  2. Identification des techniques récentes : Exploration des modèles explicables et des architectures d’apprentissage sur graphes.
  3. Conception et développement : Intégration d’ATMONTO dans un modèle combinant raisonnement symbolique et apprentissage automatique.
  4. Expérimentations et validation : Tests sur des scénarios réels et comparaison avec des modèles existants.
  5. Rédaction du rapport : Synthèse des résultats et perspectives pour la recherche future.

 

 

 

Soumettez votre candidature avant le 28/02/2024 en complétant le formulaire suivant :

 

https://forms.gle/v8pjCgfEvP82cys79

 

Ce stage est financé par l’Institut d’Aéronautique et d’Astronautique de l’Université Paris Saclay

Profil

Requirements: Machine learning, programming, python language, report writing, reading and writing basic English

Prise de fonction

Dès que possible
Partager via
Postuler
Fermer

Vous avez déjà un compte ?

Nouvel utilisateur ?