Research Abstract |
ロボットが日常生活空間で人間を支援する行動を実現するためには,日常生活空間に登場する物体や人間,道具,状況など,刻一刻と変化する状況に対して,あらかじめ与えられた知識だけでなく,後天的に経験した情報を知識ベースに蓄積し,運用していくメカニズムが必要となってくる.しかし,従来までの知識ベースシステムを用いたロボットシステムでは,知識構造を後天的に追加したり編集したりすることが困難であった.そこで,知識ベースシステムに基づく人間ロボット間のインタラクションシステムの構築に必要となる技術的課題点の検討を行い,ジェスチャーによるインタフェース,および,音声認識・音声合成による音声対話システムをロボットにインプリメントし,知識ベースシステムと統合することで,音声・ジェスチャー対話に基づく,後天的知識の獲得,および知識ベースシステムの更新を行うためのシステム設計を行った.その第一段階として,新しいユーザに対面した場合や新しいジェスチャーが提示された場合に,既存のユーザの顔画像やジェスチャー画像との判別を主成分分析に基づいて行う手法を提案した.また一方で,日常生活空間内で活動する歩行者の状況をリアルタイムに把握するために,単眼カメラ画像中の人物像を背景画像から抽出し,人物の判別を行う手法を開発した.さらに,ユーザの指差し動作を認識し状況に応じてそのジェスチャーの意味理解を行うための実験基盤として,プロジェクタで周囲に映像を投影できる部屋の中でモーションキャプチャーを行うことのできる環境を構築し,指差し動作で移動ロボットを遠隔操作するアプリケーションへの応用を行った.
|