本研究の目的は,手足が不自由な運動弱者の生活の質を改善するため,眼球を側面から撮影した画像を用いて特定の眼球運動パターン(視線ジェスチャ)を識別することにより,情報機器のハンズフリー操作を可能にするウェアラブルインタフェースを開発することである.これまでに,眼球側面画像撮影用カメラ(アイカメラ)とメガネフレームからなる視線追跡メガネを試作し,眼球特徴点を検出するための画像処理アルゴリズム及び眼と頭の動きを利用した視線ジェスチャによるハンズフリー入力方法を開発した. 最終年度は,メガネフレームにアイカメラを装着するためのジョイントの小型軽量化,画像処理アルゴリズムの改良,眼球運動の計測,及び視線ジェスチャによるハンズフリー入力方法の使いやすさに関する評価実験に取り組んだ.最初に,ジョイントの改良について,新たに設計・開発した視線追跡メガネの重さ(USBケーブル除く)は合計34.4[g](メガネフレーム23.5[g],カメラとジョイント10.9[g])で,昨年度の試作品に対して26%軽量化することができた.次に,眼球形状の個人差(睫毛や黒目領域の露出面積の違い)に対して頑健な黒目検出処理を実現するため,相対的に低い輝度値をもつ画素の分布から黒目領域と白目領域の境界点を特徴点として決定するように画像処理方法を改良した.次に,この画像処理方法の有効性を調べるために,視線ジェスチャで用いられる急速な眼球運動と緩やかな眼球運動を計測する実験を行い,時間分解能30フレーム/秒のアイカメラでこれらの眼球運動を識別できることを確認した.最後に,前年度に開発した4種類の視線ジェスチャの入力実験を行い,安定した特徴点検出に基づく視線ジェスチャの識別によりスムーズな視線入力操作が可能であることがわかった.
|