本研究では、高齢者・障害者の日常生活を支援する福祉ロボット用のインタフェースの実現を目的としている.直感的に使用できるよう注視入力を基にし、視線方向に合わせて注視点位置にレーザスポットを照射することで、実空間内でのマウスカーソルとしてユーザへの操作フィードバックとロボットへの指示入力を兼ねる. 本年度は、これまでに構築した評価用システムを用い、視線検出のためのソフトウェア開発を行った.現在主流の視線検出方法として、赤外線光源による角膜反射像を抽出する方式がある.これはCCDカメラからの画像処理によって精度の高い検出が可能であるが、原理的に眼球正面に光源とカメラを必要とするため、視野を遮りやすく、また眼鏡やコンタクトレンズの反射に弱いという欠点がある.そこで本研究では、自然光で得られた眼球画像から視線方向を求める方法について研究した. 用いた超小型CCDカメラを、眼球上方から撮影するようにゴーグルに取り付けた.これによって、室内照明による目の縁の陰影や、眼鏡での反射の影響を受けずに眼球画像を撮影できる.また、同一ユーザについては、いったんゴーグルを外して再度かけ直しても、画面中のほぼ同じ位置に眼球が撮影されるため、再調整が不要とできた. 視線方向の検出は、強膜(黒目)部分を抽出することによって行う.正面注視時の強膜部分に外接するように処理ウィンドウを設ける.二値化については、強腹部分と皮膚部分それぞれに設けた小ウィンドウ内の画素平均値から自動的に算出した.得られた強膜部分の重心位置をもって視線方向を検出した.レーザスキャナによって被検者正面から4mの壁に、レーザスポットで5×3のマトリクスを提示し、視線方向検出能を評価し、十分な分解能を有することを検証した.
|