*

Cognition Explicable : Fusion de l'IA Symbolique et Connexionniste pour une Meilleure Explicabilité des Modèles Cognitifs dans les Systèmes Homme-IA

Offre de thèse

Cognition Explicable : Fusion de l'IA Symbolique et Connexionniste pour une Meilleure Explicabilité des Modèles Cognitifs dans les Systèmes Homme-IA

Date limite de candidature

30-04-2025

Date de début de contrat

01-10-2025

Directeur de thèse

LEZOCHE Mario

Encadrement

L'encadrement du doctorant sera assuré par une équipe de chercheurs spécialisés en intelligence artificielle, combinant expertise en IA symbolique, apprentissage profond et analyse formelle des concepts. Un suivi régulier sera mis en place sous forme de réunions mensuelles avec les encadrants pour évaluer l'avancement des recherches, discuter des défis rencontrés et ajuster la méthodologie si nécessaire. Des séminaires et workshops seront intégrés au parcours du doctorant afin de renforcer ses compétences méthodologiques et favoriser les échanges avec la communauté scientifique. La progression du doctorant sera également suivie à travers des livrables intermédiaires, incluant des rapports de recherche, des articles scientifiques et des démonstrateurs expérimentaux. Un bilan annuel formalisé permettra d'évaluer les résultats obtenus, d'orienter les travaux futurs et d'assurer l'alignement des recherches avec les objectifs de la thèse et les exigences académiques.

Type de contrat

Financement d'un établissement public Français

école doctorale

IAEM - INFORMATIQUE - AUTOMATIQUE - ELECTRONIQUE - ELECTROTECHNIQUE - MATHEMATIQUES

équipe

MPSI - Modélisation, Pilotage, Sûreté des Systèmes Industriels

contexte

The research is situated at the intersection of Artificial Intelligence (AI), Explainable AI (XAI), and Hybrid AI Systems, with a focus on improving interpretability and trust in deep learning models through symbolic reasoning. Technological and Scientific Context AI has made significant progress in fields like natural language processing, computer vision, and autonomous systems, largely due to advances in deep learning. However, these models function as black boxes, making their decision-making process opaque. This lack of explainability is a critical issue, especially in high-stakes domains such as medicine, finance, law, and industrial automation, where AI-driven decisions must be trustworthy, transparent, and accountable. To address this challenge, researchers are exploring Neurosymbolic AI, which integrates symbolic reasoning (ontologies, logic, Formal Concept Analysis) with deep learning to create hybrid models that combine the structured knowledge representation and logical inference of symbolic AI with the adaptive learning capabilities of neural networks. Industrial and Societal Context AI systems are increasingly being deployed in real-world applications where explainability and compliance with ethical and legal standards are essential. Regulatory frameworks such as the EU's AI Act and principles like Trustworthy AI (transparency, fairness, accountability) demand that AI systems provide clear, human-understandable explanations for their outputs. In industrial settings, AI is playing a growing role in Cyber-Physical Systems (CPS), intelligent enterprise systems, and autonomous decision-making processes. However, AI models in these domains must adhere to domain-specific constraints, such as physical laws, industry regulations, and human reasoning patterns. The need for trustworthy AI systems that can integrate structured knowledge and provide verifiable, transparent decisions is therefore more pressing than ever. Academic and Research Context This research builds on Formal Concept Analysis (FCA), Ontology Engineering, and Machine Learning to develop a hybrid AI framework capable of explicit reasoning and human-aligned decision-making. It aligns with recent trends in AI research, particularly the movement toward interpretable and neurosymbolic AI models. The research also contributes to the development of new methodologies for integrating symbolic constraints into deep learning architectures and defining novel metrics for AI interpretability and robustness. Additionally, this work is connected to applied research within MG-IB enterprise, which participates in the Human-AI Chair, focusing on semantic formalization and intelligent enterprise systems. The study aims to provide AI-driven solutions that dynamically integrate heterogeneous data sources while ensuring explainability and reliability.

spécialité

Automatique, Traitement du signal et des images, Génie informatique

laboratoire

CRAN - Centre de Recherche en Automatique de Nancy

Mots clés

IA Explicable (XAI), Modèles Cognitifs, IA Neurosymbolique, Analyse Formelle des Concepts, Apprentissage Profond, Représentation des Connaissances

Détail de l'offre

L'intégration des approches symboliques et connexionnistes en intelligence artificielle représente une avancée majeure pour la conception de modèles cognitifs explicables dans les systèmes Homme-IA. Les progrès rapides de l'apprentissage profond ont conduit à des percées significatives dans divers domaines, notamment le traitement du langage naturel, la vision par ordinateur et les systèmes autonomes. Cependant, une limitation majeure de ces modèles réside dans leur manque d'interprétabilité. Contrairement à la cognition humaine, qui repose sur un raisonnement structuré, symbolique et une représentation explicite des connaissances, ces systèmes artificiels fonctionnent comme des boîtes noires. Ce manque de transparence est particulièrement problématique dans les applications critiques telles que la médecine, le droit, la finance et l'automatisation industrielle [1] [2], où l'explicabilité est essentielle pour garantir la confiance, la responsabilité et la conformité réglementaire.
Ce projet de doctorat vise à combler le fossé entre l'IA symbolique et connexionniste en développant un cadre hybride qui intègre la logique formelle, les ontologies et les représentations structurées des connaissances dans les architectures d'apprentissage profond [3]. La recherche se concentrera sur quatre axes clés. Premièrement, elle développera des représentations cognitives formelles des connaissances en s'appuyant sur l'Analyse Formelle des Concepts [4], les ontologies et les cadres logiques pour structurer les connaissances du domaine et imposer des contraintes de raisonnement. Deuxièmement, elle explorera des stratégies d'apprentissage hybrides intégrant des contraintes symboliques dans l'apprentissage profond, permettant aux réseaux neuronaux d'incorporer des connaissances préalables tout en affinant leurs représentations par apprentissage basé sur les données. Troisièmement, le projet étudiera les mécanismes d'explicabilité, y compris les graphes de connaissances, le raisonnement basé sur des règles et les mécanismes d'attention, afin de fournir des justifications transparentes et compréhensibles des décisions générées par l'IA. Enfin, le doctorat se concentrera sur la validation du cadre dans des applications réelles, en garantissant sa robustesse, son évolutivité et sa conformité aux exigences d'interprétabilité spécifiques à chaque domaine [5].
Pour atteindre ces objectifs, le projet adoptera une approche multidisciplinaire et il développera des architectures neuro-symboliques capables d'effectuer un raisonnement structuré, garantissant que les conclusions générées par l'IA s'alignent avec les processus cognitifs humains et les connaissances des experts. De plus, la recherche explorera des cadres de raisonnement symbolique différentiables, permettant aux modèles d'apprentissage profond d'intégrer de manière fluide des règles logiques et des structures hiérarchiques de connaissances [6].
Les contributions attendues de ce doctorat incluent le développement d'un nouveau cadre hybride d'IA pour la cognition explicable, l'introduction de nouvelles méthodologies pour intégrer l'IA symbolique aux modèles connexionnistes, ainsi que la définition de nouvelles métriques pour mesurer l'interprétabilité, la vérifiabilité et la robustesse des systèmes d'IA. La recherche présentera également des études de cas dans des domaines où l'explicabilité est cruciale [7], notamment un cadre IA-driven permettant d'intégrer dynamiquement des sources de données hétérogènes, comme les systèmes cyber-physiques industriels [8], et la formalisation des clusters sémantiques pour les systèmes intelligents centrés sur l'humain de l'entreprise MG-IB, qui participe à la chaire Human-AI. La connaissance symbolique sera basée sur des règles de physique telles que celles appliquées dans l'industrie.
En harmonisant les forces de l'IA symbolique et de l'apprentissage profond, ce projet aspire à établir un nouveau standard pour l'intelligence artificielle explicable [9].

Keywords

Explainable AI (XAI), Cognitive Models, Neurosymbolic AI, Formal Concept Analysis, Deep Learning, Knowledge Representation

Subject details

The integration of symbolic and connectionist approaches to artificial intelligence represents a significant frontier in achieving explainable cognitive models in Human-Ai systems and in particular in deep learning systems. The rapid advancements in deep learning have led to significant breakthroughs in various fields, including natural language processing, computer vision, and autonomous systems. However, a major limitation of these models is their lack of interpretability. Unlike human cognition, which relies on structured, symbolic reasoning and explicit knowledge representation, those artificial systems function as black boxes. This lack of transparency is particularly problematic in high-stakes applications such as medicine, law, finance and industrial automation [1] [2], where explainability is critical for ensuring trust, accountability, and regulatory compliance. This PhD project aims to bridge the gap between symbolic and connectionist AI by developing a hybrid AI framework that integrates formal logics, ontologies, and structured knowledge representations into deep learning architectures. By combining the power of symbolic reasoning [3] with the learning capabilities of deep neural networks, the proposed research seeks to enhance AI's interpretability while maintaining high predictive accuracy. The objective is to create AI systems capable of explicit reasoning and human-comprehensible decision-making, enabling their adoption in fields where trust and explainability are paramount. The research will focus on four key areas. First, it will develop formal cognitive knowledge representations, leveraging Formal Concept Analysis [4], ontologies, and logical frameworks to structure domain knowledge and enforce reasoning constraints. Second, it will explore hybrid learning strategies that integrate symbolic constraints into deep learning, allowing neural networks to incorporate prior knowledge while refining their representations through data-driven learning. Third, the project will investigate explainability mechanisms, including knowledge graphs, rule-based reasoning, and attention mechanisms, to provide transparent and human-understandable justifications for AI-generated decisions. Finally, the PhD will focus on validating the framework in real-world applications ensuring its robustness, scalability, and compliance with domain-specific interpretability requirements [5]. To achieve these goals, the project will employ a multi-disciplinary approach, integrating research in symbolic AI, machine learning, cognitive science, and knowledge engineering. It will develop neurosymbolic architectures capable of performing structured reasoning, ensuring that AI-generated conclusions align with human cognitive processes and expert knowledge. Furthermore, the research will explore differentiable symbolic reasoning frameworks, allowing deep learning models to incorporate logical rules and hierarchical knowledge structures seamlessly [6]. The expected contributions of this PhD include the development of a novel hybrid AI framework for explainable cognition, the introduction of new methodologies for integrating symbolic AI with connectionist models, and the definition of novel metrics for measuring interpretability, verifiability, and robustness in AI systems. The research will also present case studies in domains where explainability is crucial [7] such as the (AI)-driven framework to dynamically integrate heterogeneous data sources, as industrial Cyber Physical Systems [8] and formalize the semantics clusters for human-centric intelligent enterprise systems of the MG-IB enterprise that participates in the Human-AI chair. The symbolic knowledge will be based on rules of physics such as those found in industry. By harmonizing the strengths of symbolic AI and deep learning, this project aspires to establish a new standard for explainable artificial intelligence aligned with human reasoning expectations [9].

Profil du candidat

Le candidat idéal pour ce doctorat devrait avoir une solide formation académique en informatique, intelligence artificielle, apprentissage automatique, sciences cognitives, mathématiques ou un domaine étroitement lié. Un master ou un diplôme équivalent est requis, avec des cours ou une expérience de recherche préalable dans des domaines tels que l'apprentissage automatique, l'apprentissage profond, l'IA symbolique et la représentation des connaissances. Une bonne compréhension de la logique formelle, du raisonnement mathématique et de la modélisation cognitive serait un atout majeur.
D'un point de vue technique, le candidat doit avoir une expertise en apprentissage automatique et apprentissage profond, notamment une maîtrise des frameworks tels que TensorFlow ou PyTorch. Une expérience des architectures d'apprentissage profond comme les transformeurs, les réseaux de neurones convolutifs (CNNs), les réseaux de neurones récurrents (RNNs) et les réseaux de neurones graphiques (GNNs) est attendue. La capacité à implémenter et optimiser des modèles utilisant l'apprentissage auto-supervisé, les mécanismes d'attention, la distillation des connaissances et les techniques de robustesse adversariale sera essentielle. De plus, une familiarité avec les méthodes d'IA explicable, telles que SHAP, LIME, la visualisation d'attention et le raisonnement contrefactuel, est cruciale pour aborder les défis fondamentaux de cette thèse.
Une base solide en IA symbolique et en raisonnement formel est également requise. Le candidat doit être familier avec les systèmes de logique formelle, y compris la logique du premier ordre, les logiques de description et les ontologies, et avoir une expérience de travail avec l'analyse formelle des concepts (FCA), les cadres d'IA basés sur des règles ou les graphes de connaissances. L'intégration de ces méthodes symboliques avec les modèles d'IA connexionnistes est un défi central de la recherche, nécessitant un candidat capable de concevoir des architectures hybrides d'IA qui améliorent à la fois l'interprétabilité et la généralisation.
En plus de l'expertise en IA et en raisonnement formel, le candidat doit posséder de solides compétences en programmation et en développement, en particulier en Python ou dans d'autres langages pertinents tels que Java, C++ ou Julia. Une expérience avec des bibliothèques de traitement de données comme NumPy, Pandas et Scikit-learn sera nécessaire pour manipuler des ensembles de données à grande échelle. Une familiarité avec les approches d'IA basées sur les graphes, telles que Neo4j, RDF ou les réseaux de neurones graphiques, est très bénéfique pour structurer et raisonner sur les représentations des connaissances.
Au-delà des compétences techniques, le candidat doit faire preuve de solides compétences en recherche et en analyse, avec la capacité de formuler et de tester des hypothèses, de concevoir des expériences et de mener des évaluations empiriques des modèles d'IA. La capacité à évaluer les systèmes d'IA en termes d'explicabilité, de robustesse et de généralisation est essentielle, et une expérience antérieure de publication dans des conférences ou revues majeures en IA constituerait un avantage.
La collaboration interdisciplinaire est un aspect clé de ce doctorat, nécessitant que le candidat interagisse avec des experts en IA, en mathématiques, en sciences cognitives et dans des domaines appliqués tels que la santé, la finance et l'IA juridique. De solides compétences en rédaction scientifique, en résolution de problèmes et en communication seront nécessaires pour présenter les résultats de la recherche, publier des articles et participer à des conférences académiques. Un intérêt pour les systèmes d'IA avec intervention humaine (human-in-the-loop), l'IA éthique et la conformité réglementaire renforcera encore la capacité du candidat à contribuer à la recherche.
Dans l'ensemble, le candidat idéal est un chercheur hautement motivé ayant une solide formation en IA, apprentissage automatique, raisonnement symbolique et méthodologies computationnelles. La capacité à établir des liens entre l'apprentissage profond et les méthodes de raisonnement structuré, tout en garantissant la fiabilité, la transparence et l'utilisabilité des modèles d'IA, sera essentielle pour réussir ce doctorat.

Candidate profile

The ideal candidate for this PhD should have a strong academic background in Computer Science, Artificial Intelligence, Machine Learning, Cognitive Science, Mathematics, or a closely related field. A Master's degree or equivalent is required, with coursework or prior research experience in areas such as machine learning, deep learning, symbolic AI, and knowledge representation. A solid understanding of formal logic, mathematical reasoning, and cognitive modeling would be highly advantageous.
From a technical perspective, the candidate must have expertise in machine learning and deep learning, including proficiency with frameworks such as TensorFlow or PyTorch. Experience with deep learning architectures like transformers, convolutional neural networks (CNNs), recurrent neural networks (RNNs), and graph neural networks (GNNs) is expected. The ability to implement and optimize models using self-supervised learning, attention mechanisms, knowledge distillation, and adversarial robustness techniques will be essential. Additionally, familiarity with explainable AI methods such as SHAP, LIME, attention visualization, and counterfactual reasoning is crucial for addressing the core challenges of this PhD.
A strong foundation in symbolic AI and formal reasoning is also required. The candidate should be familiar with formal logic systems, including first-order logic, description logics, and ontologies, and have experience working with Formal Concept Analysis (FCA), rule-based AI frameworks, or knowledge graphs. Integrating these symbolic methods with connectionist AI models is a central challenge of the research, requiring a candidate capable of designing hybrid AI architectures that enhance both interpretability and generalization.
In addition to AI and formal reasoning expertise, the candidate must have strong programming and development skills, particularly in Python or other relevant languages such as Java, C++, or Julia. Experience with data processing libraries like NumPy, Pandas, and Scikit-learn will be necessary for handling large-scale datasets. Familiarity with graph-based AI approaches, such as Neo4j, RDF, or graph neural networks, is highly beneficial for structuring and reasoning over knowledge representations.
Beyond technical expertise, the candidate should demonstrate strong research and analytical skills, with the ability to formulate and test hypotheses, design experiments, and conduct empirical evaluations of AI models. The ability to benchmark AI systems for explainability, robustness, and generalization is essential, and prior experience publishing in top AI conferences or journals would be an advantage.
Interdisciplinary collaboration is a key aspect of this PhD, requiring the candidate to engage with experts in AI, mathematics, cognitive science, and applied domains such as healthcare, finance, and legal AI. Effective scientific writing, problem-solving, and communication skills will be necessary for presenting research findings, publishing papers, and participating in academic conferences. An interest in human-in-the-loop AI systems, ethical AI, and regulatory compliance will further strengthen the candidate's ability to contribute to the research.
Overall, the ideal candidate is a highly motivated researcher with a strong foundation in AI, machine learning, symbolic reasoning, and computational methodologies. The ability to bridge deep learning with structured reasoning methods, while ensuring trustworthiness, transparency, and usability of AI models, will be essential to succeeding in this PhD.

Référence biblio

[1] Jana Al Haj Ali, Ben Gaffinet, Hervé Panetto, Yannick Naudet. Cognitive systems and interoperability in the enterprise: A systematic literature review. Annual Reviews in Control, 2024, 57, pp.100954. ⟨10.1016/j.arcontrol.2024.100954⟩. ⟨hal-04515131⟩
[2] Bereket Abera Yilma, Hervé Panetto, Yannick Naudet. Systemic formalisation of Cyber-Physical-Social System (CPSS): A systematic literature review. Computers in Industry, 2021, 129:103458, ⟨10.1016/j.compind.2021.103458⟩. ⟨hal-03190888v2⟩
[3] Nicolás Leutwyler, Mario Lezoche, Chiara Franciosi, Hervé Panetto, Laurent Teste, et al.. Methods for concept analysis and multi-relational data mining: a systematic literature review. Knowledge and Information Systems (KAIS), 2024, 66, pp.5113-5150. ⟨10.1007/s10115-024-02139-x⟩. ⟨hal-04593654⟩
[4] Wille R (1982) Restructuring Lattice Theory: An Approach Based on Hierarchies of Concepts. In: Rival I (ed) Ordered Sets. Springer Netherlands, Dordrecht, NATO Advanced Study Institutes Series, pp 445–470, https://doi.org/10.1007/ 978-94-009-7798-3 15
[5] Yannick Naudet, Hervé Panetto, Bereket Abera Yilma. Towards cognitive interoperability in cyber-physical enterprises. 22nd IFAC World Congress, IFAC 2023, Jul 2023, Yokohama, Japan. pp.695-706, ⟨10.1016/j.ifacol.2023.10.1648⟩. ⟨hal-04189335⟩
[6] Danilo Avola, Irene Cannistraci, Marco Cascio, Luigi Cinque, Anxhelo Diko, Alessio Fagioli, Gian Luca Foresti, Romeo Lanzino, Maurizio Mancini, Alessio Mecca, and et al. 2022. 'A Novel GAN-Based Anomaly Detection and Localization Method for Aerial Video Surveillance at Low Altitude' Remote Sensing 14, no. 16: 4110. https://doi.org/10.3390/rs14164110
[7] Leila Amgoud, Jonathan Ben-Naim. Axiomatic Foundations of Explainability. 31st International Joint Conference on Artificial Intelligence (IJCAI 2022), IJCAI Organization, Jul 2022, Vienne, Austria. pp.636-641, ⟨10.24963/ijcai.2022/90⟩. ⟨hal-03702681⟩
[8] Mario Lezoche, Hervé Panetto. Cyber-Physical Systems, a new formal paradigm to model redundancy and resiliency. Enterprise Information Systems, 2020, 14 (8), pp.1150-1171. ⟨10.1080/17517575.2018.1536807⟩. ⟨hal-01895093⟩
[9] Ajay Chander, Ramya Srinivasan. Evaluating Explanations by Cognitive Value. 2nd International Cross-Domain Conference for Machine Learning and Knowledge Extraction (CD-MAKE), Aug 2018, Hamburg, Germany. pp.314-328, ⟨10.1007/978-3-319-99740-7_23⟩. ⟨hal-02060044⟩