研究概要 |
1.「ビデオ解析技術による操作行動解析」について:ウェブカメラを用いて,機器の操作部を撮影し,その映像を画像処理することにより,つまみや表示器の指示量を定量化することに成功した.定量化のために,ソフトウェア開発環境LabVIEWを用いて解析ソフトを開発した.On/Offのみの情報を提示するような機器や,数字(いわゆる7セグ)においては,ほぼ認識エラーが見られなかった.一方でアナログ表示においては,画像認識用のパターンマーカを貼付する必要があった.現状では機器ごとに異なるプログラムを作成する必要があるが,操作行動解析の対象となる機器に限れば,十分に実用に堪えるものとなった.この成果を更に発展させ,操作者の運動解析にビデオ解析技術を適用することを試みた.具体的には操作対象器具にパターンマーカを貼付し,これをウェブカメラで撮影し位置や姿勢を算出するものである.前年度までに検討した距離面像センサ・光学式位置センサと比較し,装置がシンプルであり,医療現場により適している. 2.「操作行動の統合的解析」について:モーションキャプチャ方式に関する前年度の検討を受け,光学式位置センサとデータグローブを統合したシステムを開発し,実際に内視鏡下手術操作を訓練用模型にて実施させた.その結果,20Hz・リアルタイムで手指の開閉および位置姿勢を記録できることが確認された.視線解析データの統合については,前年度の実験において明らかとなった頭部移動(モニタと被験者頭部の位置関係の時間変化)を検出するソフトウェアを試作したが,システム全体にこれを組み入れるには至らなかった.しかし近年,視線解析装置に位置センサを組み合わせた製品が市販されており,今後そのような装置を用いられれば容易になると考えている. 3.今年度までの研究成果は,国際学会2件,国内学会1件にて発表した.助成終了後も発表を予定している.
|