腹腔鏡下手術では,術者の触覚が大きく制限される.したがって,術者自身による触診が行えず,視覚で検出できない病変部の位置同定が困難である.本研究では,術者の経験や知識を活かした触診の実現に向けて,直接操作型センサプローブからの情報提示手法を開発・評価した. 本年度は,実施内容を研究課題に含む”調和”に立脚した視点で内容をまとめ,幅広い視点から総括を行った.まず第1年度前半に実施した心理物理実験では,センサ出力の視覚および触覚提示が,被験者の腫瘍検出能力およびなぞり操作に与える影響を調査したが,これによりそれぞれの提示手法の課題が明らかになった.そこで第1年度後半および第2年度では,課題解決のための技術開発・評価を行った.視覚提示は,術者の感覚過負荷を引き起こす可能性があり,そこで,深層学習を活用した,術者の視覚代替となる検出支援アルゴリズムを構築した.本アルゴリズムは,視覚提示の課題解決を示すだけでなく,術者による適切なセンサ操作があってはじめて検出支援が行えることから,人とコンピュータそれぞれの特長を活かした協調的判断を提案するものである.触覚提示については,検出に対する有効性が示されなかったため,新たな提示装置を開発した.センサを操作する手と提示部位との空間的一致性に着目し,これまで滅菌の問題から足背部としていた部位を指腹とするため,リング型触覚提示装置を開発した.心理物理実験を通して,触覚提示が腫瘍の位置同定精度および確信度を有意に向上させることが示され,課題解決に至った. 検出支援アルゴリズムおよびリング型触覚提示装置のそれぞれについては,さらなる考察を加え,国際雑誌論文として発表した.また実施内容は学位論文でも発表したが,単なる性能向上のみならず,術者自身の確信度およびやりがいの向上も指向するといった,従来の手術支援機器と一線を画する目標を据え,まとめた.
|