ロボットが人と対話するためには,言葉と実世界の事物・事象の対応関係をロボットが理解できなければならない.申請者の先行研究では,発話と指示対象(物や場所など)の対応関係を,音響,文法,意味を統合した確率モデルで表現し,それを統計的モデル選択に基づいて最適化することで,単語の音素系列と意味を学習する手法を提案した.この研究には次に示す3つの課題が残っていた.(1)指示対象が事前にカテゴリ化されていることを仮定している.(2)色や形といった物体の属性を表す単語は学習できず,物体そのものを表す単語のみ学習可能である.(3)実験はシミュレーションで行っており,実環境での評価は行っていない.本研究では先の手法を基に,(a)連続量として与えられるセンサ情報を適切にカテゴリ化する機能と,(b)単語の対象となる属性を判定する機能を開発・付加すること,そして(c)人とロボットの協調作業の場を構築し提案手法の有効性を評価することを目的とする. 平成23年度の成果として,(a)については,従来法で用いた3つの確率モデルのうち,意味のモデルを拡張することによりカテゴリ化の機能を実現した.また(b)については,単語の情報量を元に対象属性を判定する機能を開発した.さらに(c)については場所の名前を学習する自動巡回ロボットを開発した. 平成24年度は,上記(a)~(c)の手法の改良を進めた.さらに,相対的な意味を表す単語の学習方法を開発した.従来研究では,単語と共起するセンサ情報を直接的に学習していたため,色や大きさ,位置などのように,他の物体との比較や,典型的な概念との比較によって表される単語の意味は学習できなかった.また,人間同士の対話においては,参照点(比較対象となる物体や概念)が明示されない場合がある.そこで,EMアルゴリズムを用い,参照点の推定と語意の学習とを同時に行う手法を開発した.
|