Where PhDs and companies meet
Menu
Login

Already registered?

New user?

Théorie Abstraite de l'Explicabilité // Abstract Theory of Explainability

ABG-127817
ADUM-60381
Thesis topic
2025-01-08 Public funding alone (i.e. government, region, European, international organization research grant)
Université de Toulouse
Toulouse cedex 4 - France
Théorie Abstraite de l'Explicabilité // Abstract Theory of Explainability
  • Computer science
IA Explicable, Raisonnement Formelle
Explainable AI, Formal Reasoning

Topic description

L'amélioration de la confiance dans les décisions prises par les modèles automatisés devient cruciale pour leur acceptation par les utilisateurs finaux, et un moyen important d'y parvenir est de fournir des explications sur leur comportement. Ce besoin a donné naissance à un nouveau sous-domaine de l'intelligence artificielle, le XAI, dont les approches fournissent des moyens d'expliquer ce que font les modèles d'IA et pourquoi ils le font. Une pléthore de modèles a été étudiée dans la littérature, allant des modèles d'apprentissage automatique [1], aux systèmes de raisonnement non monotones et la sémantique de l'argumentation [2]. Dans ces cas disparates, les modèles sont différents car ils manipulent des objets différents (par exemple, les graphes dans l'argumentation et les valeurs d'attribut dans la classification) et s'attaquent à des tâches différentes (classification, inférence, évaluation,...). Par conséquent, les explications des modèles prennent également différentes formes (arguments, graphes, formules, valeurs d'attributs,...). Ces différences rendent difficile la comparaison de leurs explicateurs.

Cette thèse de doctorat vise à définir une théorie abstraite de l'explicabilité qui peut être instanciée pour expliquer n'importe lequel des modèles spécifiques mentionnés ci-dessus. L'idée est de considérer un modèle d'IA comme une fonction arbitraire dont les entrées et les sorties sont prises dans un domaine arbitraire (graphes, formules logiques, attributs-valeurs,...). Ainsi, le modèle et les données qu'il manipule sont abstraits.
La thèse abordera les défis suivants :
1) Définir le cadre formel dans lequel les modèles sont des entités abstraites.
2) Définir la notion d'explicateur et les propriétés formelles qu'il devrait satisfaire comme dans [3,4].
3) Générer différents types d'explications, y compris contrefactuelles, contrastives, abductives d'une manière uniforme.
4) Instancier le cadre avec divers modèles d'IA, y compris la sémantique graduelle dans l'argumentation, des classificateurs à boîte noire.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Improving trust in decisions made by automated models is becoming crucial for their acceptance by end-users, and an important way ofdoing that is by providing explanations for their behavior. This need has sparked a new subfield of Artificial Intelligence, XAI, whose approaches provide ways to explain what AI models do and why they do it. A large plethora of models has been investigated in the literature, ranging from machine learning models [1], to non-monotonic reasoning systems and argumentation semantics [2]. In these disparate cases, the models are very different as they manipulate different objects (eg., graphs in argumentation and attribute-values in classification) and address different tasks (classification, inference, evaluation, ...). Consequently, explanations of models also take different forms (arguments, graphs, formulas, attribute-values, ...). These differences make the comparison of their explainers difficult.

This PhD thesis aims to define an abstract theory of explainability which may be instantiated for explaining any of the above-mentioned specific models. The idea is to consider an AI model as an arbitrary function whose inputs and outputs are taken from an arbitrary domain (graphs, logical formulas, attributes-values, …). Hence, both the model and the data it manipulates are abstract.
The thesis will address the following challenges:
1) Defining the formal setting where models are abstract entities.
2) Defining the notion of explainer and the formal properties it would satisfy as in [3,4].
3) Generating various types of explanations, including counterfactuals, contrastive, abductive in a uniform way.
4) Instantiating the setting with various AI models including gradual semantics in argumentation, black-box classifiers.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Début de la thèse : 01/09/2025

Funding category

Public funding alone (i.e. government, region, European, international organization research grant)

Funding further details

Concours pour un contrat doctoral

Presentation of host institution and host laboratory

Université de Toulouse

Institution awarding doctoral degree

Université de Toulouse

Graduate school

475 EDMITT - Ecole Doctorale Mathématiques, Informatique et Télécommunications de Toulouse

Candidate's profile

Le raisonnement logique et la capacité à comprendre des notions abstraites sont essentiels. Une formation en mathématiques serait unavantage.
Logical reasoning and the ability to understand abstract notions are essential. A mathematical background would be an advantage.
2025-03-31
Partager via
Apply
Close

Vous avez déjà un compte ?

Nouvel utilisateur ?