本研究では,左右両眼の眼球側面画像を用いて視線ジェスチャを識別し,介護ロボットやPCのような情報機器に対して目による意思伝達を可能にするメガネ型インタフェースの開発に取り組んだ.最初に,メガネフレームの左右のテンプル部にカメラを固定した眼球撮影用メガネを試作した.次に,眼球側面画像から黒目(虹彩)の位置を検出する方法を開発した.次に,できるだけシンプルな視線ジェスチャで多数の入力を実現するという利便性の観点から,3種類の基本ジェスチャと2種類の補助ジェスチャを組み合わせた視線入力方法を提案した.最後に,視線ジェスチャの識別実験をおこない,提案法の有効性を確認した.
|