研究概要 |
家庭用ロボットに様々な命令を与えることを容易とすることを目的とした,マルチモーダル命令言語RUNAおよび同言語によって命令可能なヒューマノイドロボットシステムのプロトタイプを開発した。また,このシステムを用いて,音声,ジェスチャ,接触,ボタン操作を組み合わせた命令による操作方法の評価を行った。まず,「歩行」,「旋回」などの基本動作の命令の種類と全てのパラメータ(歩数,角度など)を誤解なく伝えるための音声命令言語の語彙と文法を作成し,音声認識エンジンJulianを用いた音声命令の認識を可能にした。次に,ジェスチャ,接触,ボタン操作を命令のパラメータの指定に利用するため,非言語イベントの集合を定義し,Webカメラ,接触センサ,テンキーを用いた入力からイベントを検出するサブシステムを構築した。さらに,ユーザの指示の意味表現として,命令の種類(動詞)と指定されたパラメータ(速度,角度,体の部位など)のみを表現する中間言語を策定し,対応するロボットの動作や行動とのマッチングを行う方法を考案した。これらの方法に基づいて,音声認識結果と各種非言語イベントの履歴から命令を特定し,中間言語に変換するモジュール,中間言語で表された命令からヒューマノイドロボットの登録された動作を決定するモジュールを実装した。PCから接触センサなどを取り付けた小型ヒューマノイドロボットへ動作指令を行うモジュールを実装し,プロトタイプシステムを完成させた。一般ユーザも含めた評価によって,ロボットの応答時間が十分短く,初めて利用するユーザでも留守番操作,机上操作が簡単な操作説明とデモンストレーションのみで容易に行えることが分かった。また,一般ユーザ(大学生)の主観評価も比較的良いものが得られた。評価時の記録やアンケート結果から,ロボットの音声応答,非言語入力と命令パラメータの対応付けなどが重要であることが分かった。
|