*

Fiabilité et fiabilisme dans le contexte des méthodes scientifiques basées sur l'IA

Offre de thèse

Fiabilité et fiabilisme dans le contexte des méthodes scientifiques basées sur l'IA

Date limite de candidature

15-04-2026

Date de début de contrat

01-10-2026

Directeur de thèse

IMBERT Cyrille

Encadrement

The doctoral student will be supervised by Cyrille Imbert (Archives Poincaré, Nancy). If it relevant, a cosupervision with someone from another field/university/country may be organized. Cyrille Imbert is a senior researcher at CNRS, affiliated with Archives Poincaré (CNRS, lies in the general philosophy of science (in particular, explanation, complexity, and models), science, and the social epistemology of science and epistemic activities (in particular Supervision. Regular oral and written exchanges. Co-supervision with relevant colleagues in science or philosophy, in France or abroad, is possible, if appropriate.

Type de contrat

Financement d'un établissement public Français

école doctorale

SLTC - SOCIETES, LANGAGES, TEMPS, CONNAISSANCES

équipe

contexte

Archives Poincaré and ENACT cluster The process involves two stages. - Preselection stage. Candidates are preselected by the supervisors of the institutions (like Archives Poincaré) involved in the ENACT program. Pre-applications should agree with the target topic descriptions deposited on ADUM - Application stage. Preselected candidates apply to the ENACT program with the support of the potential supervisors (deadline: end of April) More details about the three targeted PhD topics may be found here by following the links below (select the English version on each page): For this preselection stage, candidates are requested to apply online on April 15 at the latest (early bird applications are welcome, given the constrained timeline). We apologize for the very short delays due to the late publication of the call. The applications will be reviewed, and interviews with short-listed candidates will be conducted after April 15. Preselected candidate will then apply to the ENACT program and, if selected, will be interviewed in May. To apply, please apply online the following documents: - Candidate's CV - Candidate's cover letter/letter of motivation - Candidate's Bachelor's and Master's transcripts/certificates, with grades. - Letter(s) of recommendation (at most two), typically, letter of supervisor of the M2 internship (if completed or started more than 3 months ago) or of a previous project - Official certificate or evidence of English Proficiency - A research proposal (that agrees with the target PhD subject) describing the specific questions you plan to tackle and including a concrete work plan or first sketch. Maximum length: 1200 words (plus references) - Writing sample (max. 20 pages, e.g., term paper, essay, part of a Master's thesis, dissertation chapter, etc.) Please also send your application to Cyrille.Imbert@univ-lorraine.fr (but note that the official version is the one online).

spécialité

Philosophie

laboratoire

AHP-PReST - Archives Henri Poincaré - Philosophie et Recherches sur les Sciences et les Technologies

Mots clés

Apprentissage machine, Fiabilité, Fiabilisme, Conséquentialisme, Epistémologie, Philosophie des sciences

Détail de l'offre

Pourquoi faire confiance à l'intelligence artificielle (IA) en science et au-delà, dont les modèles d'IA sont souvent opaques ? Une réponse possible est que l'IA est fiable. C'est la réponse du fiabilisme, une position bien établie en épistémologie (Durán & Formanek, 2018). De fait, avec l'utilisation croissante de l'IA en science, la fiabilité de ses méthodes et pratiques est devenue un enjeu central. Les différents domaines d'application de l'IA diffèrent dans leur conception et leur évaluation de la fiabilité, ainsi que dans les normes scientifiques qu'ils utilisent.
Ce projet de doctorat vise à explorer les défis épistémologiques liés à la fiabilité des méthodes d'IA en reliant les analyses existantes sur la fiabilité des pratiques informatiques, les études scientifiques sur l'évaluation des méthodes d'IA et les débats récents en épistémologie sur le fiabilisme.
Cette recherche devrait
- contribuer à une meilleure compréhension des fondements épistémologiques de la fiabilité de l'IA ;
- Contribuer à clarifier les conditions dans lesquelles on peut faire confiance aux systèmes d'IA pour produire des résultats épistémiquement justifiés par différents types d'utilisateurs ;
- Éclairer l'élaboration de règles d'intégrité de la recherche propres à chaque communauté afin de guider le développement d'une science basée sur l'IA plus fiable, transparente et éthique, tant en recherche fondamentale qu'appliquée ;
- Apporter des éclairages sur la question de savoir si et où l'intervention et la supervision humaines peuvent garantir le bon fonctionnement des méthodes basées sur l'IA et clarifier le rôle des humains dans cet optique ;
- Fournir des outils unificateurs pour relier les enjeux épistémologiques et éthiques liés à l'utilisation des méthodes basées sur l'IA et à leur fiabilité.

Les questions ciblées peuvent inclure :
- Comment la théorie épistémologique du fiabilisme et sa version conséquentialiste, peuvent-elle éclairer notre compréhension de la fiabilité de l'IA ?
- Dans quelle mesure fiabilisme et conséquentialisme reuiqèrent-ils une analyse renouvelée dans le cadre de l'IA ? - Quel est l'impact de l'IA sur la fiabilité des recherches les utilisant ?
- Quels types d'opacité épistémique sont impliqués dans les méthodes d'IA ? Sont-ils spécifiques à ces méthodes et comment peuvent-ils être conceptualisés ?
- Comment la fiabilité des méthodes basées sur l'IA se compare-t-elle à d'autres méthodes empiriques, notamment l'utilisation des big data ?
- Dans quelle mesure la fiabilité des pratiques scientifiques basées sur l'IA dépend-elle des caractéristiques de l'environnement d'utilisation ?
- Les questions épistémologiques concernant les méthodes basées sur l'IA et leur fiabilité sont-elles générales ? Ou varient-elles significativement selon les domaines, les contextes épistémiques et les types de pratiques concernées ?
La littérature et les méthodes initiales peuvent inclure :
- la philosophie des sciences dominante ; l'épistémologie analytique ;
- la clarification conceptuelle ; les interprétations formelles des résultats ; les études de cas, en particulier celles comparant les méthodes basées sur l'IA et d'autres méthodes informatiques.

Le projet de doctorat sélectionnera certaines de ces questions et y répondra. Nous prévoyons les étapes suivantes :
- Recenser les cas pertinents permettant d'analyser les facteurs contribuant à la (non)-fiabilité des IA.
- Analyser la littérature philosophique existante sur le fiabilisme, la fiabilité des méthodes de calcul et la littérature scientifique spécifique relative à la fiabilité des IA.
- Synthétiser la littérature scientifique et les problèmes rencontrés par le fiabilisme et le conséquentialisme épistémique dans ce cadre
- Tirer des conclusions et discuter des normes relatives à la conception des IA, aux règles de bonnes pratiques et de sécurité
- Analyser dans quelle mesure le fiabilisme peut constituer un cadre unificateur à des fins éthiques et épistémologiques.

Keywords

Machine learning , Reliability, Reliabilism, Consequentialism, Epistemology, Philosophy of Science

Subject details

Why should we trust artificial intelligence (AI) in science and beyond, although AI models are highly opaque? A possible answer is that AI is highly reliable. This, at least, is the answer of reliabilism, a well-known position in epistemology (Durán & Formanek 2018). As a matter of fact, with the increasing use of AI in science, the reliability of AI-based methods and practices has become a central issue. Still, it seems that various fields in which AI is applied differ in how they conceptualize reliability, assess reliability, and which scientific norms they use to evaluate AI. This PhD project aims to explore the epistemological challenges related to the reliability of AI-based methods by bridging existing analyses associated with the reliability of computational practices, scientific studies concerning the assessment of AI-based methods, and recent discussions in epistemology concerning reliabilism and its fruitfulness. This research is expected to - contribute to a deeper understanding of the epistemological foundations of AI reliability; - help to clarify the conditions under which AI systems can be trusted to generate epistemically justified outcomes by different types of users; - inform the development of community-specific rules of research integrity to guide the development of AI-based science that are more reliable, transparent, and ethically sound, both within fundamental and applied science; - provide insights about whether and where human intervention and human oversight can ensure that AI-based methods work properly and, more generally, clarify, both from a descriptive and normative perspective, the roles of humans in computational science; - provide unifying conceptual tools to connect epistemological and ethical issues related to the use of AI-based methods and their reliability. Target questions may include: - How can the epistemological theory of reliabilism, particularly its processual and consequentialist version, inform our understanding of AI reliability? - To what extent do the well-known problems that these theories meet call for a renewed analysis in the context of AI-based methods? - How does the use of AI-based tools impact the reliability of the larger inquiries in which they are used? - What epistemic types of opacity are involved in AI-based methods? Are they specific to AI methods, and how can they be conceptualized? - How does the reliability of AI-based methods compare with that of other empirical methods, typically those based on big data? - To what extent is the reliability of AI-based scientific practices based on cognitive, epistemic, technological, or contextual features of the environment in which they are used? - Are the epistemological questions concerning AI-based methods and their reliability general? Or do they significantly vary across fields, epistemic contexts, and types of practices involved? Seed literature and methods may involve - mainstream philosophy of science; analytical epistemology; - conceptual clarification; formal result interpretations; case studies, especially those comparing IA-based methods and other computational methods. The PhD project will select some of these questions and answer them. We anticipate the following stages: - Survey salient cases in which the factors that contribute to the (non)-reliability AIs can be analyzed - Analyze the existing philosophical literature about reliabilism, the reliability of computational methods, and the specific scientific literature about the reliability of AIs - Bringing together the scientific literature and the problems met by reliabilism (e.g., generality problem, conceptual issues related to epistemic consequentialism) - Draw consequences and discuss norms concerning the designs of AI, rules of good practices, and safety rules for users. - Analyze to what extent reliabilism may be a unifying account for ethical and epistemological purposes.

Profil du candidat

Le/la candidat(e) doit être titulaire d'un master en philosophie des sciences, en philosophie ou en épistémologie, ou être sur le point de l'obtenir. Son cursus doit idéalement démontrer sa capacité à mener une analyse philosophique des méthodes formelles et scientifiques, et notamment des applications scientifiques de l'IA. D'excellentes compétences rédactionnelles sont particulièrement attendues.

Le/la candidat(e) doit posséder une compréhension suffisante des méthodes d'IA ou une capacité avérée à acquérir rapidement des connaissances pertinentes et suffisantes sur ces méthodes et leurs applications dans certains domaines scientifiques. Il/elle peut avoir suivi des formations ou des cours pertinents en méthodes d'IA, être titulaire d'une formation scientifique supérieure (par exemple, une licence en sciences dans un domaine pertinent), ou justifier de travaux universitaires démontrant sa capacité à développer des arguments philosophiques s'appuyant sur des informations relatives aux méthodes d'IA.

Le/la candidat(e) doit posséder d'excellentes aptitudes au travail d'équipe et être disposé(e) à interagir régulièrement avec différents sites de recherche afin d'optimiser son environnement de recherche philosophique à Nancy (France), dans d'autres instituts de recherche (le cas échéant) et avec d'éventuels partenaires de recherche au sein du cluster ENACT.

Le candidat devra posséder d'excellentes aptitudes relationnelles et organisationnelles afin de pouvoir engager des échanges avec des scientifiques et des philosophes pertinents au sein de la communauté internationale de philosophie de l'IA, notamment en Europe, ainsi qu'avec des philosophes possédant une expertise pertinente mais non spécialisés en IA.

Candidate profile

- The candidate is expected to have a Master's degree in philosophy of science, philosophy, or epistemology or to be about to complete this degree. By default, his/her curriculum should provide strong evidence of his/her ability to engage in a philosophical analysis of formal and scientific methods and, in particular, the scientific uses of AI. Strong evidence of excellent writing skills is particularly expected.

- The candidate should have a sufficient understanding of AI methods or a demonstrated ability to quickly acquire relevant and sufficient knowledge about these methods and their application in some scientific fields. Typically, the candidate may have some training or relevant courses in AI methods, an advanced scientific education such as the possession of a Bachelor of Science in a relevant field, or academic evidence that the candidate is able to develop philosophical arguments relying on information about AI methods.

- The candidate should have advanced teamwork skills and be prepared to develop regular interactions in several research sites in order to make the best of his/her joint philosophical research environment in Nancy (France), other research institutes (if applicable), and potential research partners within the ENACT cluster.

- The candidate is expected to have strong interaction and organizational skills in order to engage in exchanges with relevant scientists, philosophers in the larger international philosophy of AI community, especially in Europe, and philosophers who have relevant expertise but are not specialized in AI.

Référence biblio

Buijsman, Stefan, 2024 “Over What Range Should Reliabilists Measure Reliability?” Erkenntnis 89, no. 7, 2641–61.
Durán, Juan M., and Nico Formanek. 'Grounds for trust: Essential epistemic opacity and computational reliabilism.' Minds and Machines 28 (2018): 645-666.

Duran, J. M. (2025). Beyond transparency: computational reliabilism as an externalist epistemology of algorithms. arXiv preprint arXiv:2502.20402.

Goldman, Alvin, and Bob Beddor. “Reliabilist Epistemology.” In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta, Edward N. Zalta. Stanford University: Metaphysics Research Lab, 2016. https://plato.stanford.edu/archives/win2016/entries/reliabilism/.
Grote, T., Genin, K., & Sullivan, E. (2024). Reliability in machine learning. Philosophy Compass, 19(5), e12974.

Smart, Andrew, Larry James, Ben Hutchinson, Simone Wu, and Shannon Vallor, 2020. “Why Reliabilism Is Not Enough: Epistemic and Moral Justification in Machine Learning.” In Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, 372–77. AIES '20. New York, NY, USA: Association for Computing Machinery