本年度では電動駆動で容易に内視鏡挿入可能となる手法の創出を目標として,挿入方向を検知するAIモデルの開発を行った。教師データとする内視鏡の画像は,内視鏡医が大腸モデルを臨床で用いられる消化管内視鏡を用いて挿入した動画から300枚静止画像を取り出し,管腔方向をバウンディングボックスでアノテーションすることにより作成した。そしてAIのモデルとしてYOLOv5を用い,大腸モデル内の管腔方向を検出させたところ,挿入動画のうち78 %の画面で管腔方向を検出することができた。 また,この学習器は市販の細径カメラ(φ1.5 mm)を用いて大腸モデル内を撮像したところ,同様に管腔方向をバウンディングボックスで表示できることを明らかにした。そして,このバウンディングボックスの中心座標もリアルタイムで取得できることが確認された。 本研究で開発したダブルバルーンで多重に湾曲駆動する内視鏡ロボットを物理コントローラーで操作して,初学者用のコロンモデルに対して盲腸の挿入を達成している。そのため,この管腔方向認識AIによって,管腔方向に先端が向くよう操作にフィードバックできるようになれば,先端の湾曲操作を自動化し,半自動で大腸挿入することが期待できる。 また,安全性確保のためのフィードバック開発として,バルーン圧の制御は本課題で完了しており,押し込んだ際の力覚も力覚センサーで計測して,過度な力がかかる挿入を検知できることが確認されている。そのため,各種フィードバックにより,安全かつ簡便な挿入操作を実現できることが期待される。
|