研究実績の概要 |
ロボット支援手術は以前の非ロボット腹腔鏡手術よりも精緻な操作を可能とした一方,「触覚」を感知できず力も強いことから不慣れな術者の場合術中臓器損傷に遭遇することがある. しかし非ロボット腹腔鏡手術の術者として経験をつんだ場合, 感知できないはずの「触覚」をロボット手術開始当初から「感じる」とされ, それを「仮想触覚」と表現される.本研究では「ロボット支援手術で発生する臓器への加圧(加力)程度を, 手術時の映像情報のみからAIにより判断し術者へ明示」, すなわち「仮想触覚を明示」し実装することを目的とした. 方法は ①臓器へ加圧(加力)時の経時的臓器変形動画データと, ②過去のヒト手術動画から許容される臓器加圧程度をAIへ学習させそれを基にプログラム構築する。 最終的には、「限られた一定の条件において、鉗子による臓器圧迫変形映像から鉗子先端に発生している力の推定は可能」となった。具体的には実データを用いてAIで深層学習させることにより、鉗子先端に生じる力推定の基本モデル作成には成功した。実データ取得に際して鉗子先端はロボット用鉗子を用いて圧測定が可能な3軸力覚センサ搭載腹腔鏡手術鉗子を作成、豚の摘出臓器を腹腔鏡手術トレーニング環境下に設置、鉗子で臓器を圧迫しながら圧を測定し、その際の映像を録画してデータを収集した。 これまでの研究実績は、現在論文として投稿中である。
|