本研究では,大規模な人とロボットのインタラクションによるマルチモーダル情報に基づく物体・場所概念の学習を可能とするクラウド仮想環境:SIGVerse+Lを構築した.まず,被験者の音声、視線、身体動作を仮想環境のアバターに反映する機能を構築した.次に,仮想環境のロボットが被験者の音声,環境の画像,地図上の位置などのマルチモーダル情報を収集する機能をROSにより実装した.最後に,SIGVerse+Lを用いたヒューマンロボットインタラクションに基づく場所概念学習をマルチモーダル情報に基づくベイズ生成モデルにより達成した.
|