研究概要 |
本年度は、前年度までの状況に依存した行動命令解釈機構を拡張した。前年度まで扱って来た解釈は、センサ情報とロボットの行動を元に行うものであった。本年度は、状況の概念をロボットの身体イメージにまで拡張し、身体イメージと行動命令に関する研究を行った。 具体的には、人間の身体パーツを模した目と腕パーツ(ディスプレイロボット)を開発した。ディスプレイロボットは、家具や家電に直接貼付けることができ、貼付けられた物体が人間から擬人化されやすくなる効果を持つ。さらに、貼付ける物体や、貼付けるパーツの位置関係を変更することによって身体イメージを比較的容易に変えることができる。 本年度は、ディスプレイロボットを用いて、身体イメージの変化と行動命令の関係について検証実験を行った。特に、ロボットの意図に関わる発話と身体イメージとの関係に関して検証を行った。つまり、物体が擬人化されることにより、人間が物体を能動的な主体であると解釈しやすくなる可能性を、ロボットの意図に関わる発話で探る。ここで扱う発話は、前年度までに研究を行って来た状況依存命令をロボットの主体性にまで拡張したものである。 実験の結果、ディスプレイロボットが物体に付けられた場合には,人間は容易に、意図に関する発話を理解したのに対して、ディスプレイロボットを付けられていない場合には、意図性を感じさせる主体が周囲に存在しないため、人間は、物体からの発話を解釈することができなかった。
|