本研究の目的は,手足が不自由な運動弱者の能動的な活動を支援するため,目で合図を送ることにより介護ロボットやPCのような情報機器に対して意思伝達を可能にするインタフェースを開発することである.本研究の成果は次のとおりである. (1) 小型のCMOSカメラモジュールを独自設計したジョイント部を介して市販のメガネフレームのテンプル部に取り付けることによって,眼球を側面から撮影した画像を低コストで取得することが可能となった. (2) 眼球側面画像には,検出対象の虹彩(黒目)のほかにも眉毛や顔以外の背景も含まれる.そこで,まばたきにより目の領域を適切に決定する方法を開発した.さらに,機械学習による目の検出器を用いることにより,まばたき不要で自動的に目領域を検出できる方法が見出された.これらの方法は,意思伝達インタフェースの利便性の向上につながると期待される. (3) 虹彩の位置を検出するために,目の領域内における輝度値のヒストグラムを用いた方法を開発した.眼球回転に対する虹彩の移動量は,カメラから眼球までの距離によって変化する.具体的には,カメラと眼球の距離が近くなるほどこの虹彩移動量は大きくなる.そこで,カメラ-眼球間距離の変動の影響を抑えるため,目領域内の相対位置として虹彩位置を検出する方法を開発した. (4) 虹彩位置から視線切替え時に起こる高速な眼球運動(サッカード)と頭部回転時に起こる低速な眼球運動(前庭動眼反射)の識別が可能かどうかを調べた.その結果,虹彩の移動速度の違いを利用してサッカードと前庭動眼反射の検出が可能であることがわかった. (5)できるだけ簡単な視線の動き(視線ジェスチャ)で目の合図を実現するという観点から,3種類の基本ジェスチャと6種類の補助ジェスチャを組み合わせた合計18種類の視線ジェスチャを提案し,これらをリアルタイムで認識する方法を開発した.
|