DiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporamaDiaporama
Home
ICube Laboratory   >   Events : Thèse : Apprentissage de représentations latentes centrées sur les objets pour la reconnaissance de tâches fines dans des vidéos chirurgicales

Thèse : Apprentissage de représentations latentes centrées sur les objets pour la reconnaissance de tâches fines dans des vidéos chirurgicales

November 19, 2025
17:00
Salle Hygie - IHU

Soutenance de thèse :Aditya Murali

Titre : Apprentissage de représentations latentes centrées sur les objets pour la reconnaissance de tâches fines dans des vidéos chirurgicales

La soutenance est publique et pourra également être suivie en visioconférence Webex. Elle sera tenue en anglais.

Lien: https://ihu-strasbourg.webex.com/ihu-strasbourg/j.php?MTID=mdc2c511a736bf0713bae6c676a3c4852
Identifiant (code d’accès):
 2789 033 7363

Mot de passe: q7Y3Z45mgYQ

Date et heure : le mercredi 19 novembre 2025 à 17h00

Lieu : Salle Hygie, Institut Hospitalo-Universitaire (IHU) Strasbourg, 1 place de l'Hôpital (Nouvel Hôpital Civil), 67000 Strasbourg, France

Jury : 

  • Directeur : Prof. Nicolas Padoy, ICube, Université de Strasbourg
  • Co-directeur : Prof. Didier Mutter, HUS, Université de Strasbourg
  • Président du jury : Prof. Michel de Mathelin, Université de Strasbourg
  • Rapporteur : Prof. Mathias Unberath, The Johns Hopkins University
  • Rapporteur : Prof. Nicolas Thome, Sorbonne Université
  • Examinateur : Prof. Serena Yeung, Stanford University
  • Examinateur : Dr Pietro Mascagni, IHU Strasbourg & Fondazione Policlinico Universitario Agostino Gemelli IRCCS

Résumé:

L'analyse vidéos chirurgicales joue un rôle essentiel dans l'amélioration des pratiques chirurgicales en permettant une évaluation objective des performances, le développement des compétences et un soutien peropératoire intelligent. À mesure que le domaine évolue vers des tâches plus précises, telles que la détection des interactions entre les instruments et les tissus, l'évaluation de la qualité des dissections et la détection des événements indésirables, il devient nécessaire de disposer de méthodes efficaces tout en réduisant le recours aux annotations manuelles, qui sont extrêmement coûteuses. Dans cette thèse, nous proposons un cadre unifié pour la classification fine d'images et de vidéos basé sur des représentations graphiques latentes, qui modélisent les scènes chirurgicales en termes d'objets constitutifs, capturent les relations entre les objets et modélisent la dynamique des objets dans le temps. En tirant parti de ce cadre, nous développons une approche de généralisation de domaine qui surpasse largement les références conventionnelles. Enfin, nous développons une nouvelle approche de construction de graphes en quelques essais qui exploite des modèles de segmentation généralistes à ensemble ouvert, permettant ainsi de surmonter le goulot d'étranglement des annotations et d'améliorer la généralisation. À travers de nombreuses expériences, nous illustrons les avantages de notre cadre d'apprentissage centré sur les objets et mettons en lumière la manière dont il est possible d'aborder plus efficacement les nouvelles tâches d'analyse de vidéos chirurgicales à l'avenir.

À la une

La conférence EGC (Extraction et Gestion des Connaissances) s’est déroulée du 27 au 31 janvier 2025...

RSS Feeds

Flux RSS