本年度は、まず、これまでに構築した、言語と視覚情報に基づいてロボットを物体の名前で提示したゴールに対して導く強化学習ナビゲーション技術をICRA2020で発表した。具体的には、物体検出を用いて画像から得た視覚情報と大規模な知識データから変換されたword embeddingを用いて表現されたモノの意味をニューラルネットワーク内で特徴表現として融合して動作ポリシーに入力しアクションを生成するナビゲーションモデルついて発表を行った。また、このナビゲーションモデルについて学習条件を増やし再学習と検証を行った結果、以下のことが分かった。(1)この学習モデルでは、学習時間を延ばすことが必ずしも成功率向上に寄与しないばかりか過学習につながり性能が低下する。これは学習時間が経過するごとにエージェントの経路が洗練され最短経路に近づくため、学習に必要なデータのバリエーションが低下するためだと考えられる。(2)学習データ(学習に使用する部屋の数)を増やすことにより、多くの条件で概ね性能が向上する。RNN、LSTMなどのモデルにおいてもこの傾向はみられ、このことからも学習データを増やすことは有効な手段の一つであるといえる。(3)提案手法は、グラフニューラルネットワークを用いた従来手法よりも性能面で優れている。
加えて、物体操作のための6DOF物体姿勢推定と2次元地図上でのロボット軌道学習に関する研究をIEEE ICIPで共著発表した。
|