*

Conception et impact d'un modèle hybride de recommandation conversationnelle de parcours dans les musées

Offre de thèse

Conception et impact d'un modèle hybride de recommandation conversationnelle de parcours dans les musées

Date limite de candidature

28-04-2025

Date de début de contrat

01-10-2025

Directeur de thèse

CERISARA Christophe

Encadrement

Suivi régulier du travail par les encadrants (réunions hebdomadaires ou bihebdomadaires en présentiel), présentation des travaux en séminaires d'équipe et conférences, cours de formation complémentaires obligatoires organisés par l'École Doctorale, constitution d'un comité de suivi de thèse se réunissant a minima une fois par an

Type de contrat

Concours pour un contrat doctoral

école doctorale

IAEM - INFORMATIQUE - AUTOMATIQUE - ELECTRONIQUE - ELECTROTECHNIQUE - MATHEMATIQUES

équipe

BIRD

contexte

Ce travail de thèse s'inscrit dans le cadre du projet de valorisation non économique MBANv2 de l'équipe MosAIk. Il se situe à l'interface de plusieurs axes de recherche de l'équipe, à savoir TAL et LLM, Explicabilité et interprétabilité, IA hybride et IA responsable. L'objectif de cette thèse est de concevoir et d'étudier l'impact d'un modèle d'apprentissage automatique hybride tirant partie des systèmes de recommandation traditionnels et des LLMs pour une IA éthique, explicable et ubiquitaire. Le modèle applicatif privilégié dans le cadre de cette thèse sera celui du patrimoine culturel. La recommandation de parcours dans les musées est en effet particulièrement adaptée car elle s'inscrit dans un contexte d'optimisation multi-objectif [18]. Elle doit être construite autour des préférences et attentes des visiteurs, s'adapter dynamiquement au contexte (temporalité de la visite, changement de style de visite en cours d'exploration ou revisite, densité de population et gestion de foule, motivations pour la visite, accompagnants, scénographie du musée, connaissances préalables des visiteurs, besoin en diversité, etc.). Bien évidemment, le cadre théorique pourra être étendu à d'autres champs disciplinaires tels que l'e-éducation, le tourisme ou les médias sociaux.

spécialité

Informatique

laboratoire

LORIA - Laboratoire Lorrain de Recherche en Informatique et ses Applications

Mots clés

Systèmes de recommandation séquentiels, Grands modèles de langage (LLMs), Outils conversationnels, Patrimoine culturel, Intelligence Artificielle et Éthique, Conception centrée sur l'humain

Détail de l'offre

La plupart des services en ligne, tous domaines applicatifs confondus, proposent un accès à des données hétérogènes et massives. Face à cette tâche de recherche potentiellement complexe et chronophage, les systèmes de recommandation traditionnels constituent une alternative éprouvée pour assister les utilisateurs dans leurs explorations d'environnements virtuels ou physiques. Ils permettent en effet de capturer les préférences individuelles à travers l'analyse automatique des traces d'interaction et proposent des items susceptibles d'intéresser les utilisateurs [1].

Les systèmes de recommandation traditionnels présentent de nombreux avantages. Ils ont notamment une capacité à inférer et à prendre en compte le contexte d'usage (localisation, temporalité, environnement social...) [2,3]. Par ailleurs, ils ont une mémoire des interactions précédentes garantissant un accompagnement dans la durée et des recommandations séquentielles [4,5]. Ils n'exigent également aucune compétence particulière de la part des utilisateurs, en comparaison à d'autres systèmes de recherche et d'accès à l'information (équations de recherche par exemple) [6].

Néanmoins, ces systèmes souffrent également de certaines limitations : (1) ils manquent de capacité à expliquer les recommandations en langage naturel [7], (2) ils nécessitent de collecter un grand nombre de traces pour atteindre un niveau de précision satisfaisant [8], (3) ils peinent à s'adapter dynamiquement aux changements de comportement des utilisateurs lorsque ces derniers ne suivent pas la séquence de recommandations préconisée [9].

Les grands modèles de langage (LLMs) offrent une alternative intéressante aux systèmes de recommandation traditionnels. Les LLMs permettent de créer des conversations textuelles convaincantes et de produire des chaînes de pensée pour expliquer leurs productions [10]. Pour ces raisons, les LLMs sont de plus en plus étudiés dans le contexte de la recommandation [11,12]. Cependant, ils ont aussi leurs limites. Les LLMs sont ainsi sujets aux hallucinations [13]. Ils nécessitent des connaissances avancées en ingénierie du prompt pour une utilisation optimale [14] et ne permettent pas d'accompagnement dans la durée car prendre en compte la mémoire des interactions passées avec l'utilisateur n'est pas aussi simple avec les LLM. En outre, un des grands enjeux des LLMs à l'heure actuelle est la réduction du coût d'entraînement et de réglage des modèles [15]. Enfin, les biais induits par ces modèles sont encore peu maîtrisés (bulles de filtre, biais de popularité, équité, biais liés à la qualité des données d'entraînement...) [16,17].

Dans ce contexte, il apparaît intéressant de tirer partie des deux approches, non pas en les substituant l'une à l'autre, mais en proposant une nouvelle famille de système de recommandation hybride. Les retombées potentielles sont nombreuses et incluent la possibilité d'une narration automatique cohérente (incluant fouille et génération de contenus), l'amélioration de l'explicabilité des recommandations, une plus grande facilité d'utilisation, une pédagogie renforcée (acceptation, adoption, rétention de l'information accédée, développement de l'esprit critique), la vérification de la véracité de l'information, ou encore la frugalité du modèle.

Keywords

Sequence-based Recommender Systems, Large Language Models (LLMs), Conversational tools, Cultural Heritage, Artificial Intelligence and Ethics, Human-Centered Design

Subject details

Most online services, across all application domains, offer access to massive and heterogeneous data. Faced with this potentially complex and time-consuming search task, traditional recommender systems are a proven alternative to assist users in their exploration of virtual or physical environments. They capture individual preferences through the automatic analysis of interaction traces and suggest items likely to interest users [1]. Traditional recommender systems offer numerous advantages. They notably have the ability to infer and take into account the context of use (location, temporality, social environment, etc.) [2,3]. Furthermore, they have a memory of previous interactions, ensuring long-term support and sequential recommendations [4,5]. They also require no specific user skills, compared to other information systems (e.g., advanced search) [6]. However, these systems also suffer from certain limitations: (1) they lack the ability to explain recommendations in natural language [7], (2) they require the collection of a large number of traces to achieve a satisfactory level of accuracy [8], (3) they struggle to dynamically adapt to changes in users' behaviors when they do not follow the recommended sequence of recommendations [9]. Large Language Models (LLMs) offer an attractive alternative to traditional recommender systems. LLMs allow the creation of convincing text conversations and the production of Chains of Thought to explain their output [10]. For these reasons, LLMs are increasingly studied in the context of recommendation [11,12]. However, they also have their limitations. LLMs are prone to hallucinations [13]. They require advanced knowledge in prompt engineering for optimal use [14], and do not allow for long-term support because taking into account the memory of past interactions with the user is not as straightforward with LLMs. Furthermore, one of the major challenges facing LLMs today is reducing the cost of training and tuning models [15]. Finally, the biases induced by these models are still poorly understood (filter bubbles, popularity bias, fairness, bias related to the quality of training data...) [16,17]. In this context, it appears interesting to leverage both approaches, not by substituting one for the other, but by proposing a new family of hybrid recommender systems. The potential benefits are numerous and include the possibility of coherent automatic storytelling (including content mining and generation), improved explainability of recommendations, greater ease of use, enhanced pedagogy (acceptance, adoption, retention of accessed information, development of critical thinking), verification of the veracity of the information, and even the frugality of the model.

Profil du candidat

- Master en Intelligence Artificielle, Sciences Cognitives, Traitement de la parole, TAL, Apprentissage Automatique ou dans un domaine connexe
- Solides compétences en programmation
- Une expérience préalable autour des systèmes de recommandation et/ou des LLMs est un atout
- Excellentes capacités organisationnelles, rédactionnelles et de communication pour travailler efficacement avec des équipes interdisciplinaires de chercheurs
- Français et Anglais courant

Candidate profile

- Master's degree in Artificial Intelligence, Cognitive Sciences, Speech Processing, NLP, Machine Learning, or a related field
- Strong programming skills
- Prior experience with recommender systems and/or LLMs is an asset
- Excellent organizational, writing, and communication skills to work effectively with interdisciplinary teams of researchers
- Fluent in French and English

Référence biblio

[1] Charu C. Aggarwal (2016). Recommender Systems: The Textbook (1st. ed.). Springer Publishing Company, Incorporated.
[2] Le Ngoc Luyen, Marie-hélène Abel, Philippe Gouspillou (2025). Enhancing Context-Aware Recommender Systems Through Deep Feature Interaction Learning. Journal of Multi-Criteria Decision Analysis, 32 (1).
[3] Mateos, P., Bellogín, A. (2025). A systematic literature review of recent advances on context-aware recommender systems. Artif Intell Rev 58, 20.
[4] Massimo Quadrana, Paolo Cremonesi, and Dietmar Jannach (2018). Sequence-aware Recommender Systems. In Proceedings of the 26th Conference on User Modeling, Adaptation and Personalization (UMAP '18). Association for Computing Machinery, New York, NY, USA, 373–374.
[5] Diksha Garg, Priyanka Gupta, Pankaj Malhotra, Lovekesh Vig, and Gautam Shroff (2019). Sequence and Time Aware Neighborhood for Session-based Recommendations: STAN. In Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR'19). Association for Computing Machinery, New York, NY, USA, 1069–1072.
[6] Armentano, Marcelo G. & Christensen, Ingrid & Schiaffino, Silvia (2015). Applying the Technology Acceptance Model to Evaluation of Recommender Systems. Polibits. 51. 73-79.
[7] Sebastian Lubos, Thi Ngoc Trang Tran, Seda Polat Erdeniz, Merfat El Mansi, Alexander Felfernig, Manfred Wundara and Gerhard Leitner (2023). Concentrating on the Impact: Consequence-based
Explanations in Recommender Systems. Joint Workshop on Interfaces and Human Decision Making for Recommender Systems, Singapore.
[8] Thennakoon Mudiyanselage Anupama Udayangani Gunathilaka, Prabhashrini Dhanushika Manage, Jinglan Zhang, Yuefeng Li, Wayne Kelly (2025). Addressing sparse data challenges in recommendation systems: A systematic review of rating estimation using sparse rating data and profile enrichment techniques, Intelligent Systems with Applications, Volume 25.
[9] Kuan Zou, Aixin Sun, Xuemeng Jiang, Yitong Ji, Hao Zhang, Jing Wang and Ruijie Guo (2024). Hesitation and Tolerance in Recommender Systems. ArXiv.
[10] Mavrepis, Philip, Georgios Makridis, Georgios Fatouros, Vasileios Koukos, Maria Margarita Separdani and Dimosthenis Kyriazis (2024). “XAI for All: Can Large Language Models Simplify Explainable AI?” ArXiv.
[11] Likang Wu, Zhi Zheng, Zhaopeng Qiu, Hao Wang, Hongchao Gu, Tingjia Shen, Chuan Qin, Chen Zhu, Hengshu Zhu, Qi Liu, Hui Xiong and Enhong Chen (2023). A Survey on Large Language Models for Recommendation. World Wide Web, Internet and Information Systems, volume 27 (60).
[12] Sein Kim, Hongseok Kang, Seungyoon Choi, Donghyun Kim, Minchul Yang, and Chanyoung Park (2024). Large Language Models meet Collaborative Filtering: An Efficient All-round LLM-based Recommender System. In Proceedings of the 30th ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD '24). Association for Computing Machinery, New York, NY, USA, 1395–1406.
[13] Lei Huang, Weijiang Yu, Weitao Ma, Weihong Zhong, Zhangyin Feng, Haotian Wang, Qianglong Chen, Weihua Peng, Xiaocheng Feng, Bing Qin, Ting Liu (2023). A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions. ACM Trans. Inf. Syst. 43, 2, Article 42. 55 pages.
[14] Lei Li, Yongfeng Zhang, and Li Chen (2023). Personalized Prompt Learning for Explainable Recommendation. ACM Trans. Inf. Syst. 41, 4, Article 103 (October 2023), 26 pages.
[15] Yaya Sy, Christophe Cerisara, Irina Illina (2024).
Lillama: Large Language Models Compression via Low-Rank Feature Distillation. CoRR.
[16] Liv Ziegfeld, Daan Di Scala, Anita H.M. Cremers (2025). The effect of preference elicitation methods on the user experience in conversational recommender systems. Computer Speech & Language, Volume 89.
[17] Isabel O. Gallegos, Ryan A. Rossi, Joe Barrow, Md Mehrab Tanjim, Sungchul Kim, Franck Dernoncourt, Tong Yu, Ruiyi Zhang, Nesreen K. Ahmed; Bias and Fairness in Large Language Models: A Survey. Computational Linguistics 2024; 50 (3): 1097–1179.
[18] Pierre-Edouard Osche, Sylvain Castagnos and Anne Boyer. AntRS: Recommending Lists through a Multi-Objective Ant Colony System. In proc. of the 41st European Conference on Information Retrieval (ECIR 2019). Cologne, Germany, April 2019.