Research Abstract |
二年度の計画のメインは, 初年度のマルチモーダルな学習・認識の改良と, ローカルな学習・認識を利用し, 行動のプランニング・生成及びロボットによる行動決定を行うことであった. そこで, 従来申請者が研究を行ってきた様々な視覚情報処理システムの拡張と統合を行い, その結果をまとめ投稿した論文が, 国際ジャーナルに掲載された. ただしこの手法では, 特徴の統合は行っているものの, インスタンスやカテゴリ, 材質の認識は独立している. そこで, 物体の階層構造をマルコフモデル用いて確率的に表現し, 各階層の認識結果の整合性を考慮することで上述の認識手法を総合的に向上させる手法を開発した. この内容に関しては国際会議で発表し, 現在論文執筆中である. さらに本年度は, ロボットの行動のプランニング・生成及び行動決定の具体的な取り組みとして, (1)コミュニカティブモバイルマニピュレーションと, (2)ユーザ行動の観測に基づくロボットの行動決定に関する研究を行った. (1)では, ロボットの身体性と置かれた環境を考慮し, 対象物の把持を行うためのロボットの位置決めを行う. 現段階では, 視覚認識より得られた物体存在確率, 身体確率マップと, 音声命令をベイズの枠組みで統合することで, ロボットの最適な移動位置を決めることができている. この内容は国内学会で発表し, 優秀講演賞を受賞した. 今後, 定量評価を行い論文誌へ投稿する予定である. (2)では, 音声命令を正しく解釈しタスクを実行するための手がかりとして命令を受けた際の様々な文脈を統合しロボットによる行動決定を行う. さらにこの研究では, ロボットが人の生活に密着し動作パターンを教師なしで学習することで動作を予測し, 先回りしたサービスを行う手法を提案した. この内容の途中結果を国内学会で発表し, 優秀講演賞を受賞した. 今後, 定量評価を行い国際学会や論文誌へ投稿する予定である.
|
Current Status of Research Progress |
Current Status of Research Progress
2: Research has progressed on the whole more than it was originally planned.
Reason
当初の計画では, 二年目に初年度のマルチモーダルな学習・認識の改良及び継続と, 行動のプランニング・生成及びロボットによる行動決定を行う予定であった. そのために, 視覚情報処理システムの拡張と統合を行った. また, コミュニカティブモバイルマニピュレーションとユーザ行動の観測に基づくロボットの行動決定に関する研究を行った. このように, 研究はおおむね順調に進展しているといえる.
|
Strategy for Future Research Activity |
本年度はローカルなロボットがそれぞれデータの収集や学習を行うことで認識・行動を行うことが基本となっている. しかし, これらの手法をクラウド上で実現することで, 複数のロボットの情報を統合し, それらを学習することで認識・行動決定を行うことができる. また, これらクラウド上のプロセスとローカルなプロセスには階層性があるため, ロボット自身のデータによるローカルな認識・学習を基本として, それらを補う形でクラウドが機能する仕組みを構築することが可能である. 来年度は, このような仕組みを定式化し, 実際に実現することを検討する.
|