Offre de thèse
Etude de la photopléthysmographie sans contact pour l'évaluation spatialement résolue de la perfusion microvasculaire dans les plaies
Date limite de candidature
31-07-2024
Date de début de contrat
01-10-2024
Directeur de thèse
BOUSEFSAF Frédéric
Encadrement
Présence au LCOMS et encadrement par un directeur et un co-directeur (Frédéric BOUSEFSAF et Choubeila MAAOUI). Tout matériel à disposition. La thèse se déroulant dans le contexte d'un projet ANR, un groupe de recherche avec l'Université de Bourgogne et le CHU de Nantes sera constitué (plusieurs chercheurs et plusieurs doctorants seront intégrés dans ce ce groupe).
Type de contrat
école doctorale
équipe
AXE HESAcontexte
La mesure de signaux physiologiques sans contact est un domaine en plein essor. Les techniques d'intelligence artificielle (IA) modernes ont récemment été utilisées pour mesurer avec fiabilité la fréquence cardiaque. L'analyse démarre du flux vidéo du visage d'une personne enregistré par une caméra standard (webcams, caméras embarquées dans les smartphones…). Ces modèles d'IA présentent désormais des performances supérieures aux techniques conventionnelles intégrant des opérations manuelles de traitement des images et du signal.spécialité
Automatique, Traitement du signal et des images, Génie informatiquelaboratoire
LCOMS - Laboratoire de Conception, Optimisation et Modélisation des Systèmes
Mots clés
photopléthysmographie, plaies, apprentissage profond, analyse vidéo
Détail de l'offre
Les plaies chroniques constituent un problème de santé important, affectant des millions de patients en Europe et engendrant des coûts substantiels aux systèmes de santé. Les méthodes traditionnelles de surveillance des plaies, qui reposent sur des observations visuelles subjectives et des mesures manuelles, sont souvent imprécises et douloureuses pour les patients. Pour répondre à ces enjeux, ce projet propose l'utilisation de la photopléthysmographie à distance (rPPG) pour l'évaluation spatialement résolue de la perfusion microvasculaire dans les plaies. Cette technique optique non invasive capte les variations d'intensité lumineuse résultant des interactions avec le corps humain, offrant une approche innovante de l'évaluation des plaies.
Le projet se concentre sur le développement d'une nouvelle méthodologie basée sur l'apprentissage profond pour l'imagerie rPPG spatialement résolue à partir d'enregistrements vidéo de tissus. Il vise à relever deux défis majeurs : affiner notre compréhension des interactions lumière-tissu et étendre le succès de l'apprentissage profond à cette problématique.
Le projet comprend trois volets scientifiques. Le premier étudie les interactions lumière-tissu afin d'améliorer notre compréhension des modulations temporelles observées dans le rPPG. Cela nous permettra de démêler les contributions de l'absorption du sang et des déformations élastiques du lit capillaire sur les modulations de lumières observées. Le second utilise l'apprentissage profond, des données vidéo synthétiques et des paradigmes faiblement supervisés pour estimer les cartes de rPPG et les indicateurs liés à la perfusion microvasculaire. Le troisième volet valide la technologie pour la surveillance des plaies dans des conditions réelles.
Ce projet se situe à l'intersection de l'intelligence artificielle, de l'analyse vidéo et des soins de santé, et offre la possibilité de révolutionner le soin et la gestion des plaies.
Keywords
photoplethysmography, wound, deep learning, video analysis
Subject details
Chronic wounds are a major health problem, affecting millions of patients in Europe and resulting in substantial costs to healthcare systems. Traditional methods of wound monitoring, based on subjective visual observations and manual measurements, are often imprecise and painful for patients. To address these issues, this project proposes the use of remote photoplethysmography (rPPG) for spatially resolved assessment of microvascular perfusion in wounds. This non-invasive optical technique captures variations in light intensity resulting from interactions with the human body, offering an innovative approach to wound assessment with the potential for widespread adoption. The project focuses on developing a novel deep-learning-based methodology for spatially resolved rPPG imaging from video recordings of tissues. It aims to overcome two key challenges: refining our understanding of light-tissue interactions in rPPG and extending deep learning's success to spatially resolved rPPG contexts. The project comprises three scientific work packages. The first investigates light-tissue interactions to improve our understanding of temporal modulations of reflected light observed in rPPG. This will allow us to untangle the contributions of blood absorption and elastic deformations of the capillary bed on the observed modulations. The second uses deep learning, synthetic video data, and weakly supervised paradigms to estimate rPPG maps and indicators linked to microvascular perfusion. The third validates the technology for wound monitoring in real-world conditions, ensuring practicality and usefulness. This project resides at the intersection of cutting-edge artificial intelligence, video analysis, and healthcare, offering the potential to revolutionize wound care and management.
Profil du candidat
Le candidat ou la candidate devra disposer de compétences en traitement d'images, traitement du signal et en IA. Une maitrise de l'anglais, au minimum technique/scientifique, est attendue. Une expérience dans le domaine de l'analyse d'images ou signaux médicaux est un plus.
Candidate profile
The candidate must have an expertise in image processing, signal processing and AI. Mastering english (at least technical/scientifc english) is mandatory. An experience in the field of medical image or signal analysis is a plus.
Référence biblio
Quelques références de publications proposées par notre groupe de recherche et par le consortium (Université de Bourgogne et CHU de Nantes) :
F. Bousefsaf, C. Maaoui, and A. Pruski, “Continuous wavelet filtering on webcam photoplethysmographic signals to remotely assess the instantaneous heart rate,” Biomed. Signal Process. Control, vol. 8, no. 6, pp. 568–574, 2013.
F. Bousefsaf, C. Maaoui, and A. Pruski, “Remote detection of mental workload changes using cardiac parameters assessed with a low-cost webcam,” Comput. Biol. Med., vol. 53, pp. 154–163, 2014.
F. Bousefsaf, C. Maaoui, and A. Pruski, “Peripheral vasomotor activity assessment using a continuous wavelet analysis on webcam photoplethysmographic signals,” Biomed. Mater. Eng., vol. 27, no. 5, pp. 527–538, 2016.
F. Bousefsaf, C. Maaoui, and A. Pruski, “Automatic Selection of Webcam Photoplethysmographic Pixels Based on Lightness Criteria,” J. Med. Biol. Eng., vol. 37, no. 3, pp. 374–385, 2017.
F. Bousefsaf, A. Pruski, and C. Maaoui, “3D Convolutional Neural Networks for Remote Pulse Rate Measurement and Mapping from Facial Video,” Appl. Sci., vol. 9, no. 20, p. 4364, Oct. 2019, doi: 10.3390/app9204364.
D. Djeldjli, F. Bousefsaf, C. Maaoui, F. Bereksi-Reguig, and A. Pruski, “Remote estimation of pulse wave features related to arterial stiffness and blood pressure using a camera,” Biomed. Signal Process. Control, vol. 64, p. 102242, Feb. 2021.
F. Bousefsaf, D. Djeldjli, Y. Ouzar, C. Maaoui, and A. Pruski, “iPPG 2 cPPG: reconstructing contact from imaging photoplethysmographic signals using U-Net architectures,” Comput. Biol. Med., vol. 138, p. 104860, Sep. 2021, doi:10.1016/j.compbiomed.2021.104860.
Bobbia et al., Unsupervised skin tissue segmentation for remote photoplethysmography, Pattern Recognit. Lett., 2017.
Perche et al. Data-augmentation for deep learning based remote photoplethysmography methods, in IEEE EHB, 2021.