2021 Fiscal Year Annual Research Report
AIに基づく外科医の術中技能の定量化による次世代低侵襲手術手技訓練システム
Project/Area Number |
19H04139
|
Research Institution | Okayama University |
Principal Investigator |
諸岡 健一 岡山大学, 自然科学学域, 教授 (80323806)
|
Co-Investigator(Kenkyū-buntansha) |
大内田 研宙 九州大学, 大学病院, 講師 (20452708)
宮内 翔子 九州大学, システム情報科学研究院, 助教 (40828555)
|
Project Period (FY) |
2019-04-01 – 2022-03-31
|
Keywords | 低侵襲手術 / 手術手技訓練システム / 実時間有限要素解析 |
Outline of Annual Research Achievements |
当該研究は,腹腔鏡下手術の安全性・確実性の向上を目指し,申請者が有する実時間有限要素解析システム(neuroFEM) と,術中内視鏡画像を融合することで,手術中の外科医の手術手技と,手技操作に伴う人体組織の振舞いを計測し,その計測データに基づいた次世代の低侵襲手術手技訓練システムの開発を目的とする. 令和3年度では,令和元年度で構築した,異なる物性の組織間の相互作用を考慮した実時間有限要素解析システムmultiphysics DeepFEM (mDeepFEM) の推定精度向上を目指し,現在のmDeepFEMのネットワークの構造の最適化を行った.具体的には,mDeepFEMは,位置と周囲からの応力の時系列データを入力することで,臓器変形を推定する.そこで,時系列データを扱えるニューラルネットワークの1種であるGated Recurrent Unit(GRU)をmDeepFEMに導入した.その結果,GRUを導入したmDeepFEMによる変形推定精度が向上できた. また,内視鏡画像から術具領域を自動的に抽出するシステムについて研究を行った.このシステム開発では,令和2年度に,術具が写っている内視鏡画像から,術具領域をラベル付けした学習データからなるデータベースを構築していた.そのデータベースを使って,各画像から術具領域を抽出・認識するシステムの開発を行った.その結果,物体検出精度の指標であるmIoU(Mean Intersection over Union)は,0.59であった.この結果は,一般物体を検出する精度と同程度であり,精度良く術具領域を抽出できた.
|
Research Progress Status |
令和3年度が最終年度であるため、記入しない。
|
Strategy for Future Research Activity |
令和3年度が最終年度であるため、記入しない。
|