
















Pour assister les chirurgiens dans le cadre d’opérations sous endoscopie, des chercheurs du Laboratoire des sciences de l'ingénieur, de l'informatique et de l'imagerie (ICube) développent un algorithme dont l’apprentissage est basé sur l’utilisation des données fournies par le robot et les images de la caméra.
|
La chirurgie endoscopique à l’aide d’instruments rigides s’est développée à partir des années 80 et la chirurgie robotisée depuis les années 2000. « Dans cette recherche, nous utilisons un endoscope flexible robotisé, utile par exemple pour des opérations dites « endoluminales » dans le tube digestif ou le colon », explique Benoit Rosa, chercheur CNRS à ICube qui travaille au côté de Luca Sestini, doctorant, à ajouter un certain niveau d’autonomie à ces instruments par une assistance aux gestes à l’aide d’un algorithme.
Objectif : « Faire de la chirurgie de manière plus intuitive et plus sûre. » Le tout, dans le cadre d’un projet européen International treaning network (ITN) en collaboration avec six autres universités européennes, dont l’université polytechnique de Milan. Dans un article paru dans IEEE Robotics and Automation Letters, le chercheur et son équipe sont parvenus à réaliser avec une algorithme une estimation de la pose des instruments robotisés par rapport à la caméra. L'originalité de l'approche tient dans l'exploitation conjointe d'un modèle donnant la forme du robot à partir des données moteur, et des images fournies par la caméra endoscopique.
« Pour entrainer l’algorithme, il faut estimer la position 3D des instruments dans le corps ce qui nécessite beaucoup de données. Dans le cadre d’une approche supervisée, il faudrait que le chirurgien annote un très grand nombre d’images pour que l’algorithme puisse apprendre », détaille le chercheur qui souligne que l’utilisation des seules données moteur du robot fournissent des résultats moins performants qu’un algorithme supervisé. Raison pour laquelle il a opté pour le couplage des données moteur avec les images de la caméra.
Prochaine étape : faire en sorte de ne plus avoir besoin des informations moteur du robot. Ce qui permettrait de généraliser les apprentissages sur d’autres types de robots, « comme ceux pour lesquels nous n’avons pas accès aux informations moteurs. »
A plus long terme, les chercheurs souhaiteraient combiner cette approche à des modèles prenant en compte d’autres aspects pour connaitre par exemple la force exercée sur un tissu du corps. « Le chirurgien ne peut aujourd’hui compter que sur un retour visuel. En améliorant son retour sensitif grâce aux efforts exercés sur les tissus, nous pourrions ainsi contribuer à rendre les chirurgies plus sûres et efficaces. »
|
Schéma décrivant le fonctionnement de l’algorithme. Crédit Luca Sestini |
Cet article a été posté sur le site recherche de l'université de Strasbourg le 9 juin 2021. Il a été rédigé par Marion Riegert, Rédactrice en chef du site Recherche.
Accès à l'article du 9 juin
Lors du congrès annuel du CIRSE 2025, organisé du 13 au 17 septembre à Barcelone en Espagne, le...
Le 5 février 2026, les partenaires du projet Interreg 2PhaseEx se sont réunis à la Manufacture des...
La réunion de mi-parcours du projet Interreg IMAGINE-STIM s’est tenue le 29 janvier. Elle a permis...
Les vendredi 30 et samedi 31 janvier, à Schirmeck, le festival Alsascience, organisé par le Jardin...
Après un parcours en biologie et en neurosciences, Maria Fiori a choisi de s’engager dans la...
Le 16 janvier 2026, l’Université de Strasbourg et Inria ont signé une convention cadre pour...
La nouvelle année débute avec le lancement de quatre nouveaux projets Interreg auxquels le...
Lors du congrès annuel du CIRSE 2025, organisé du 13 au 17 septembre à Barcelone en Espagne, le...
Madame Amonet Bazam Ouoba Nebie, doctorante au 2iE-Institut International d'Ingénierie de l'Eau et...
Lucas Striegel est maître de conférences à ICube au sein de l'équipe génie civil et énergétique et...