• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2016 Fiscal Year Annual Research Report

Research on Analyzing Non-rigid Objects' Behaviors by Temporal Image Processing

Research Project

Project/Area Number 26330209
Research InstitutionWaseda University

Principal Investigator

大谷 淳  早稲田大学, 理工学術院, 教授 (90329152)

Project Period (FY) 2014-04-01 – 2017-03-31
Keywords動画像処理 / 早期認識 / 手術 / 事後確率 / 順序情報
Outline of Annual Research Achievements

手術における看護師不足への対策として看護師ロボットの実現が望まれている。我々は手術者を支援する看護師ロボットの実現を目指し、手術野の動画像を分析し、人間の看護師と同様に、自動的に手術の進行や状況を把握する方法の研究を行っている。既に我々は、傷の縫合手術を構成する6つの段階のうち2つの段階(手術者の手の動きに対応)を早期認識(early-recognition)する手法を提案し、有効性の見通しを得ている。
本期間は、早期認識の対象を、傷の縫合手術における6つの動作に拡張する検討を行った。まずsliding window(複数フレームから構成される)を、傷の縫合手術を撮像した動画像において移動させて、早期認識対象動作の開始候補点を検出する。対象動画像を複数フレームから構成されるセグメントに分割しておき、検出された開始候補点から、Ryooらが提案した早期認識法に基づき、教師データと動的計画法によりマッチングを行う。ここで、このマッチングには、教師データの3D-SIFTとBag-of-Wordsに基づくヒストグラムをセグメントごとに計算して接続したものを特徴量とし、教師データと動画像との類似度を求める。この類似度は開始候補点以降の各時点において計算する。この類似度をベイズ推定による各早期認識対象動作の事後確率の計算式に代入し、事後確率を最大にする動作を見出す。各時点における最大事後確率の最大値を与える動作を早期認識結果として出力する。
2016年度は、前述の早期認識法を、単純に傷の縫合術を構成する6段階に適用する場合と、段階の順序関係を利用する場合とを比較した。50本の手術の動画像を用いる実験の結果、対象動作が開始時点から終了時点までの70%進捗した時点で、順序情報を用いない場合、6つの動作の早期認識率の平均値は82%であった。一方、順序を考慮にいれると平均値は90%に改善された。

Research Products

(2 results)

All 2017 2016

All Journal Article (1 results) (of which Peer Reviewed: 1 results) Presentation (1 results)

  • [Journal Article] Early Recognition of Surgeons' Hand Actions from Continuous Surgery Videos by Using Subactions2016

    • Author(s)
      Y. Li, J. Ohya, T. Chiba, R. Xu and H. Yamashita
    • Journal Title

      IIEEJ Transactions on Image Electronics and Visual Computing

      Volume: 4 Pages: 124-136

    • Peer Reviewed
  • [Presentation] 縫合手術を構成する6つの段階の動画像中の手術者の手の動きに基づき予測する方法2017

    • Author(s)
      坪田実和, 李 イエ, 大谷 淳
    • Organizer
      電子情報通信学会技術報告
    • Place of Presentation
      北海道大学
    • Year and Date
      2017-02-21

URL: 

Published: 2018-01-16  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi