研究概要 |
一般の気の合った人間同士の場合,コミュニケーションにより行動目的が明かとなれば,状況変化があっても,相手のしぐさや言動から意志の疎通がはかれ,協調行動を行うことができる.即ち,人間の場合,共通のコミュニケーション手段を持つことで観察と対話を通じて,その時点における相手の意図を理解することができる. 本年度は,このような人間のコミュニケーション手段と同様の考えで,表情やジェスチャの観察を通して,ユーザの現時点の行動目的(意図)を理解し,その人に複雑な操作を強いることなく,ユーザの意図に沿った支援や作業,行動を行うロボットシステムの実現を目指し,ジェスチャ認識ならびに姿勢推定方法を構築した.具体的には,動画像中での人物の動き情報に注目し,動き情報をシンボル化してHMMを用いて認識する方法を確率した.また,動きのモデルと過去の姿勢とを比較することにより不足するバラメータを予測し,モデルと人物のシルエット画像が一致するようにパラメータを最適化することで効率良く姿勢推定を行う方法を開発した. 最後に,センサシステムの小型化に向けて,2つの取り組みを行った.第1は,我々の考案した双曲面ミラーを利用した全方位視覚HyperOmni Visionの光学系の最適化による小型化,第2は,根本的に光学系の再検討を行い,小型化に適しかつこれまでの性質を継承した放物面ミラーを2枚利用した多重反射型全方位視覚センサの提案で,直径2.4cmの大きさでじつげんできた.
|