本年度では、人間とのインタラクションに合わせて行動命令解釈に必要となるセンサ情報を集める状況認識機構SARを実現した。人間の自然言語では、指示語による方向指示や、副詞による量の表現が頻繁に用いられるので、コンピュータシステムで扱う上で定量的に表現できないといった問題があった。この問題は、自然言語を行動命令として用いる際に、ロボットの行動を厳密に指定できないことを意味しており、容易にロボットへ命令する際の障壁となっている。 本研究では、ロボットに搭載されているセンサ情報を用いて状況認識機構SARを構築し、人間からの行動命令に用いられる指示語および量的表現の補完を試みる。具体的には、指示語「あっち」、「こっち」、「そっち」および副詞「もうすこし」と行動命令「向け」、「回れ」、「進め」の組み合わせを行動命令として扱った。また、ロボットとして人型ロボットRobovie(上半身人型、下半身車輪)を用いた。センサとしては、Robovieに搭載されているタッチセンサ、超音波距離センサ、エンコーダを用いた。行動命令の入力には、音声認識ソフトウェアを用いて、実際の人間の発話を取り込むのと同時に、適切なセンサ情報を選択した。 今回作成したシステムは、人間からの行動命令は自然言語解析をされ、各フレームの形で命令を表現する。指示語や副詞は、格フレーム内の要素として一時的に格納される。一方、SARは、指示語や副詞とセンサ情報を結びつけるルールを持っている。また、ルールは、動詞情報に従って選択されるので、行動命令によって適応されるルールが異なる。SARは、ルールに従って指示語や副詞が格納された要素を、センサ情報によって具体的な量表現へと変換し、格フレームの要素を埋める。 SARでは、行動命令として、指示語の指定にタッチセンサを用いて、人間が触れながら呼びかけた場合の方向の同定、および、ロボ.ットが前進し、停止後に与えられる命令「もうすこし進め」の距離の同定を実現した。
|