研究概要 |
研究プロジェクトの初期段階においては, 医師の手技を解析することでロボット制御に役立つ熟練動作を明らかにすることを計画していた. しかしながら, ロボットによる手術と手技による手術は術具の自由度の違いから, 得られる動作も大きく異なることが考えられる. そこで, 手技からではなくロボット手術から動作を解析することとした. 手術動作を解析するためには, 術具の位置, 組織の位置を正確に計測する必要があるが, 微細手術に於いては対象が小さいという制約のため位置センサを取り付けることが出来ない. そのため, これらを計測するためには手術中に得られる映像から画像処理を用いて術具位置, 組織位置を認識する必要がある. そこで本年度は, 手術動作の取得を目的とし, 画像処理による術具位置および, 周辺環境認識手法の開発に取り組んだ. 術具位置の認識においては, 術具の三次元モデルおよび色のモデルを用いて映像中における位置・姿勢を推定する手法を開発した. また, 画像から得た位置・姿勢の情報をロボットにフィードバックすることで, 画像の座標系とロボットの座標系の間の関連をオンラインで推定する手法の開発も行った. また, 開発したロボット手術の有効性を定量的に評価するための評価モデルの開発も行った. 従来, ロボット手術の評価は外部のセンサを用いた精度等の基礎評価のあと, 生体(動物)を用いた実験により有効性の評価を行ってきた. しかしながら, これらの評価では臨床における手術動作をした場合にどのような効果が得られるかを定量的に評価することができない. そこで, 開発した評価モデルにおいては実際の手術動作を再現しつつ, 定量的な評価指標が得られるようになっている.
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
3: やや遅れている
理由
手術動作の取得は当初, 位置センサ等の外部センサを用いて行う予定であったが, 実際は組織との相対関係が非常に重要であることから, 手術映像から状態を取得することが必要となった. 手術映像からの術具・組織位置の取得は術具の反射や背景の複雑さ等から容易ではなく, そのため予定よりも時間がかかる結果となっている.
|
今後の研究の推進方策 |
引き続き, 手術動作を獲得するための環境認識を進めるとともに, 取得した手術動作を動作の種類にもとづいて分類する手法を研究する. 分類された動作から, 熟練度や手術成績に直接的に関連する動作のみを抽出し, 該当動作において安定して最適な動作を行うことができるロボット制御技術の研究を行う.
|