本研究では、高齢者・障害者の日常生活を支援する福祉ロボット用のインターフェースの実現を目的としている.直感的に使用できるよう注視入力を基にし、視線方向に合わせて注視点位置にレーザスポットを照射することで、実空間内でのマウスカ-ソルとしてユーザへの操作フィードバックとロボットへの指示入力を兼ねる.具体的には、視線検出部とレーザスキャナを組み合わせて頭部に搭載し、視線検出値に基づいてスキャナを駆動する.この方式により視線検出及びスキャナ駆動の双方が頭部を基準として動作するため、頭部自体の方向に関わらず精確な注視点位置にレーザスポットを照射できる. 本年度は、このインターフェースの評価システム構築を中心に研究を行った.頭部に搭載可能とするために、小型軽量化を目標とした.スキャナ部についてはレーザダイオードを使用し、光学系の駆動によるスキャン方式を比較検討した.光学系の駆動としては反射鏡を回転させる方式があるが、2自由度の駆動のためには2枚の鏡を独立して動かすために小型軽量化が困難である.そこでコリメータレンズを平行移動させる方式を検討し、可動コイルアクチュエータを用いて試作したが、スポット形状が周辺で歪むこと、要求精度を満たすためには閉ループ制御が必要な為、開ループ制御により駆動できる機構としてステッピングモータにより2枚のウェッジプリズムを回転させることによるスキャナ機構を検討した.この方式は小型で高精度の照射方向決めが可能であるが、視線の移動に追従するには速度が遅いことやスポット移動軌跡が体性感覚に合わないことが問題点として挙げられた. 視線検出部には、近年開発された超小型CCDカメラ(直径7mm×長さ42mm)を利用し、画像処理でLimbusを抽出することとした.カメラ本体および画像処理での明るさの自動調節により、従来よりも照明条件の変動に強い抽出が可能となった.
|