Pour assister les chirurgiens dans le cadre d’opérations sous endoscopie, des chercheurs du Laboratoire des sciences de l'ingénieur, de l'informatique et de l'imagerie (ICube) développent un algorithme dont l’apprentissage est basé sur l’utilisation des données fournies par le robot et les images de la caméra.
|
La chirurgie endoscopique à l’aide d’instruments rigides s’est développée à partir des années 80 et la chirurgie robotisée depuis les années 2000. « Dans cette recherche, nous utilisons un endoscope flexible robotisé, utile par exemple pour des opérations dites « endoluminales » dans le tube digestif ou le colon », explique Benoit Rosa, chercheur CNRS à ICube qui travaille au côté de Luca Sestini, doctorant, à ajouter un certain niveau d’autonomie à ces instruments par une assistance aux gestes à l’aide d’un algorithme.
Objectif : « Faire de la chirurgie de manière plus intuitive et plus sûre. » Le tout, dans le cadre d’un projet européen International treaning network (ITN) en collaboration avec six autres universités européennes, dont l’université polytechnique de Milan. Dans un article paru dans IEEE Robotics and Automation Letters, le chercheur et son équipe sont parvenus à réaliser avec une algorithme une estimation de la pose des instruments robotisés par rapport à la caméra. L'originalité de l'approche tient dans l'exploitation conjointe d'un modèle donnant la forme du robot à partir des données moteur, et des images fournies par la caméra endoscopique.
« Pour entrainer l’algorithme, il faut estimer la position 3D des instruments dans le corps ce qui nécessite beaucoup de données. Dans le cadre d’une approche supervisée, il faudrait que le chirurgien annote un très grand nombre d’images pour que l’algorithme puisse apprendre », détaille le chercheur qui souligne que l’utilisation des seules données moteur du robot fournissent des résultats moins performants qu’un algorithme supervisé. Raison pour laquelle il a opté pour le couplage des données moteur avec les images de la caméra.
Prochaine étape : faire en sorte de ne plus avoir besoin des informations moteur du robot. Ce qui permettrait de généraliser les apprentissages sur d’autres types de robots, « comme ceux pour lesquels nous n’avons pas accès aux informations moteurs. »
A plus long terme, les chercheurs souhaiteraient combiner cette approche à des modèles prenant en compte d’autres aspects pour connaitre par exemple la force exercée sur un tissu du corps. « Le chirurgien ne peut aujourd’hui compter que sur un retour visuel. En améliorant son retour sensitif grâce aux efforts exercés sur les tissus, nous pourrions ainsi contribuer à rendre les chirurgies plus sûres et efficaces. »
Schéma décrivant le fonctionnement de l’algorithme. Crédit Luca Sestini |
Cet article a été posté sur le site recherche de l'université de Strasbourg le 9 juin 2021. Il a été rédigé par Marion Riegert, Rédactrice en chef du site Recherche.
Accès à l'article du 9 juin
Offers are available in the Job opportunities section of the ICube website or by clicking on the...
Le 13 novembre, le CNRS a réuni les 26 start-up issues de ses laboratoires sous tutelle,...
L'équipe de l'Université de Strasbourg et la délégation Alsace du CNRS se sont brillamment...
Le vendredi 20 septembre a eu lieu la réunion de lancement du projet INTERREG 2PhaseEx, au...
Paris 27 aout 2024 – ARCHOS annonce que POLADERME, filiale du Startup studio Medtech du groupe...
La 11e journée du département de mécanique s'est tenue le 18 juin 2024. Lors de cette...
A l'occasion de la soirée de gala du 103ème congrès de l’association française des professionnels...
Le 32ème Congrès Français de Thermique de la Société française de thermique (SFT) organisé par le...
L'un des 3 Prix du meilleur poster de la 11èmes journées de la Fédération de Médecine...
La neurostimulation guidée par l’imagerie cérébrale pour traiter les patients atteints d’épilepsie...
L'un des 3 Prix du meilleur poster de la 11èmes journées de la Fédération de Médecine...