本研究では,「日常生活の中で使える視線インタフェース」を実現するため,カメラを用いて眼球運動および瞬き検出する方法およびこれらの視線情報を組み合わせることで直観的な操作性を備える視線入力システムの開発に取り組んだ.以下にその概要を述べる. 1台のカメラで煩雑なキャリブレーション不要な視線推定を実現するため,眼球回転に伴う見かけ上の虹彩径の変化と瞳孔中心位置から視線方向を推定する方法を開発した.この方法により,視線推定の際に眼球形状に関するユーザパラメータや眼球-ディスプレイ間距離のような環境パラメータの設定が不要となる.推定した眼球回転中心位置に基づき視線方向(瞳孔中心と眼球回転中心を結ぶ直線)を計算し,視覚対象となるディスプレイ平面と視線の交点として注視点を推定したところ,水平および垂直方向の平均誤差はそれぞれ1.2deg,1.0degであった.次に,コンピュータのマウスカーソルを眼の動きで操作し,瞬き又は短時間の注視によりクリック動作を行う視線マウスを開発した.ディスプレイ上のランダムな位置に現れるターゲットに対して視線マウスにより位置決めとクリック動作を行ったところ,位置決めとクリック動作に要するターゲット1つあたりの平均時間は,1.2sec(瞬き),0.9sec(短時間注視)であり,通常の手によるマウス操作の平均時間(0.8sec)と比較しうる良好な結果が得られた. 日常生活空間での利用を想定したメガネ型視線追跡デバイスのファーストステップとして,超小型カメラを用いたヘッドマウント型の視線計測装置を試作した.2台の超小型カメラを用いて取得した左右両眼の画像から両眼の視線方向を計算したところ,視線の上下左右の動きだけでなく注視点の前後(奥行き)方向の動きも検出できることを確認した.今後は,これらの3次元的な視線の動きを利用した視線入力方法も検討していきたい.
|