2010 Fiscal Year Annual Research Report
重度障害者のための自律動作する目入力方式による意思伝達装置の開発
Project/Area Number |
22500512
|
Research Institution | Toyama Prefectural University |
Principal Investigator |
中村 清実 富山県立大学, 工学部, 教授 (20143860)
|
Co-Investigator(Kenkyū-buntansha) |
高野 博史 富山県立大学, 工学部, 講師 (40363874)
|
Keywords | 画像認識 / 生体工学 / ユーザインタフェース / 医療・福祉 / リハビリテーション |
Research Abstract |
本研究では、専門的な知識を有さない家族や介護士、一般の方でも容易に使えるように、カメラの位置や向き制御を自動化し、顔認証による専用アプリケーションソフトの自動選択機能を搭載した自律動作型の目入力による意思伝達装置の開発を行う。平成22年度は、自律動作型意思伝達装置の設計および製作と顔検出によるカメラ位置の自律制御アルゴリズムの開発を行った。 (1)自律移動ロボットを用いた自律動作型意思伝達装置の設計・製作 意思伝達装置に使用するカメラの位置合わせを自律的に行うために、PC制御が可能な電動アクチュエータを用いて2次元移動ステージを製作した。2次元移動ステージは、水平および垂直方向に対してカメラの位置合わせを行うことができ、水平・垂直軸ともに動作範囲は200mm、移動速度は最大で100mm/secである。また、本システムで使用するカメラは、重量が2kg以下であり、パン・チルト・ズーム・フォーカスをPCから制御できるものを選定した。 (2)顔および目検出による自律制御アルゴリズムの開発 カメラから取得した画像より顔領域を検出し、顔位置情報を利用してカメラの位置制御を行うアルゴリズムを開発した。まず、Haar-like特徴量とカスケード型の識別器による顔検出法を用いて顔領域を特定し、顔中心が画像中心になるようにカメラを移動させる。その際顔検出により得られた画像上における顔の横幅(単位はpixel)と人体寸法データベースから求められる平均的な顔幅(単位はmm)の関係から、2次元移動ステージの移動量を算出している。位置合わせが終了した後、目検出が可能な顔幅になるように、カメラのズーム制御を行う。本研究で開発した制御法を評価するために、カメラ画像中における顔の初期位置を変化させて、カメラの位置制御およびズーム制御の実験を行った。実験の結果、位置制御の成功率は94.1%、ズーム制御の成功率は73.3%であった。今後、ズーム制御の成功率を向上せせるために、ズーム制御法の検討を行う必要がある。
|