Research Abstract |
動作から相手の意図を認識するためには, 動作のみではなく, 動作の行われた状況に着目する必要がある. また相手の注意を引き, 人をインタラクションに引きこむためには, 人がロボットの動作からロボットが何を表現しているのか, どのようなサービスタスクを行おうとしているのかが察せられるような動作であることが望ましい. 本年度は, 本研究は人を見守り動作と環境を関連付け人の意図を察する部分と, そこで得られた知識に基づいてリアクションを生成する部分の2点から研究を進めた. 人の自然な動作から, 動作に関する知識を得るためにステレオカメラを配置し, 手・顔の位置を3次元座標として取得した. これにより, 指差し動作や手招き動作など複数の動作の認識を行うことが可能になった. パーソナルスペースの考えに基づき, ロボットと人との距離を状況の一つとし, 人の手まねき動作と指示動作(指差し動作)がどのように行われるのか観察を行い, 個々によって, 多少差異はあるが, 距離に応じて動作をある程度分類可能であることが分かった. この結果に基づき, 人の動作を情報からロボット自身の動作へとリンクさせる学習構造について検討を行った. ロボットの持つ自由度や, ロボットの体長を考慮すると, 人の動きをそのまま再現することは難しい. そこで, カオス連想推論を用いた見まね学習システムを構築した. その結果, 個々のユーザのこだわりの強さにもよるが, 見真似で得られた動作を基に, カオス連想推論によってデフォルメした動作の方が, 実際にロボットが人を手まねき, または, 位置を指し示した場合に気付きやすいということが分かった. また, ロボットと人との距離によって獲得された動作は異なるが, 同様にロボットが人へ対してリアクションを返す場合も, 距離に応じた動作を提示したほうが, 人はロボットの動作(意図)に気付きやすいことが分かった.
|