Pour assister les chirurgiens dans le cadre d’opérations sous endoscopie, des chercheurs du Laboratoire des sciences de l'ingénieur, de l'informatique et de l'imagerie (ICube) développent un algorithme dont l’apprentissage est basé sur l’utilisation des données fournies par le robot et les images de la caméra.
|
La chirurgie endoscopique à l’aide d’instruments rigides s’est développée à partir des années 80 et la chirurgie robotisée depuis les années 2000. « Dans cette recherche, nous utilisons un endoscope flexible robotisé, utile par exemple pour des opérations dites « endoluminales » dans le tube digestif ou le colon », explique Benoit Rosa, chercheur CNRS à ICube qui travaille au côté de Luca Sestini, doctorant, à ajouter un certain niveau d’autonomie à ces instruments par une assistance aux gestes à l’aide d’un algorithme.
Objectif : « Faire de la chirurgie de manière plus intuitive et plus sûre. » Le tout, dans le cadre d’un projet européen International treaning network (ITN) en collaboration avec six autres universités européennes, dont l’université polytechnique de Milan. Dans un article paru dans IEEE Robotics and Automation Letters, le chercheur et son équipe sont parvenus à réaliser avec une algorithme une estimation de la pose des instruments robotisés par rapport à la caméra. L'originalité de l'approche tient dans l'exploitation conjointe d'un modèle donnant la forme du robot à partir des données moteur, et des images fournies par la caméra endoscopique.
« Pour entrainer l’algorithme, il faut estimer la position 3D des instruments dans le corps ce qui nécessite beaucoup de données. Dans le cadre d’une approche supervisée, il faudrait que le chirurgien annote un très grand nombre d’images pour que l’algorithme puisse apprendre », détaille le chercheur qui souligne que l’utilisation des seules données moteur du robot fournissent des résultats moins performants qu’un algorithme supervisé. Raison pour laquelle il a opté pour le couplage des données moteur avec les images de la caméra.
Prochaine étape : faire en sorte de ne plus avoir besoin des informations moteur du robot. Ce qui permettrait de généraliser les apprentissages sur d’autres types de robots, « comme ceux pour lesquels nous n’avons pas accès aux informations moteurs. »
A plus long terme, les chercheurs souhaiteraient combiner cette approche à des modèles prenant en compte d’autres aspects pour connaitre par exemple la force exercée sur un tissu du corps. « Le chirurgien ne peut aujourd’hui compter que sur un retour visuel. En améliorant son retour sensitif grâce aux efforts exercés sur les tissus, nous pourrions ainsi contribuer à rendre les chirurgies plus sûres et efficaces. »
Schéma décrivant le fonctionnement de l’algorithme. Crédit Luca Sestini |
Cet article a été posté sur le site recherche de l'université de Strasbourg le 9 juin 2021. Il a été rédigé par Marion Riegert, Rédactrice en chef du site Recherche.
Accès à l'article du 9 juin
Offers are available in the Job opportunities section of the ICube website or by clicking on the...
Dans cette interview, Thomas Alfroy, doctorant et membre de l’équipe Réseaux au Laboratoire ICube...
Dans cette interview, Emmanuel Martins Seromenho, doctorant et membre de l’équipe IPP...
La conférence EGC (Extraction et Gestion des Connaissances) s’est déroulée du 27 au 31 janvier 2025...
Le salon Pollutec est l'événement international de référence des solutions pour l'environnement...
Le salon Pollutec est l'événement international de référence des solutions pour l'environnement...
Haitao Ge, doctorant à l'INSA Strasbourg au sein de l'équipe Génie civil - énergétique (GCE) a...
Dans le cadre du projet Interreg Offensive Science 2PhaseEx, cinq membres de l’équipe ICube/Mécaflu...
Le 13 novembre, le CNRS a réuni les 26 start-up issues de ses laboratoires sous tutelle,...
L'équipe de l'Université de Strasbourg et la délégation Alsace du CNRS se sont brillamment...
Le vendredi 20 septembre a eu lieu la réunion de lancement du projet INTERREG 2PhaseEx, au...