現在、自立用介護ロボットの必要性が認められつつも、安全面の問題や操作性の煩雑さ等の理由で実用化は難しい状況である。よって、本研究では、視線による指示、画像による物体認識、音声による意思伝達を複合させて、より直感的で分かりやすいマン-マシンインタフェイスの構築を目的としている。本年度の研究実績としては、 1.眼球運動測定装置(T.K.K 2930A竹井機器工業製)と小型CCDカメラをゴーグルに取り付け、視線入力装置を構成した。また、これらの装置とPCをシリアルポートとキャプチャーボードを介して接続し、入力・データ処理を行うプログラムを作成した。 2.視線入力装置を構成する眼球運動測定装置の座標系とCCDカメラの画像座標系を合わせるための校正法を確立し、そのための校正機器を構成した。 3.数人の被験者により、視線の向きとCCDカメラの画像を同時にPCへ記録する実験を行い、上記1の視線入力装置と上記2の校正法の有効性を確認した。 4.ロボットハンドで机上の物体をつかむ事を想定し、上記1の視線入力装置の座標と机上の基準座標系との変換式を導き、机上の対象物を利用者の視線の向きで指示するための関係式を導出した。 5.机上の対象物を基準座標系で認識するために別のCCDカメラを机の上方に配置することを想定し、関連の画像処理プログラムを作成した。 また、現在、これらの装置を単純化・軽量化を行うために全てのコントロールおよびデータ解析をノートPC1台で行うことが可能であるか検討中である。
|