Budget Amount *help |
¥3,700,000 (Direct Cost: ¥3,700,000)
Fiscal Year 2006: ¥500,000 (Direct Cost: ¥500,000)
Fiscal Year 2005: ¥3,200,000 (Direct Cost: ¥3,200,000)
|
Research Abstract |
近年,高齢化社会や教育現場において,人間に優しいロボットの導入の期待が高まっており,高度なコミュニケーション能力を持つロボットの開発が行われつつある.しかしながら,現在のロボットのコミュニケーションの研究の多くは,自然言語認識やジェスチャー分類であるが,人間の身振り手振りには,その人固有のダイナミクスが存在し,コミュニケーションでは,ある特定のジェスチャーを伴う受け答えのパターンが存在し,個人間の行為のダイナミクスやパターンの違いは,識別のための不変項として利用できる.身振り手振りを含む人間の行為には,注意を促す動作や表情を作り出す動作など様々な情報が含まれており,本研究ではこれらの情報を効率よく抽出することを目標とし,高い精度のジェスチャー認識機構を実現するために計算的知能を用いた手法を提案した.まず,進化的ロボットビジョンを用いてカメラ画像から人間を抽出する.次に,人間の顔を中心とした注視領域を決定し,注視領域内で人間の手の位置の時間的変化パターンをスパイキングニューラルネットワークにより抽出する.この抽出されたパターンをジェスチャーとして,自己組織化マップを用いて教師無し分類学習を行う.提案手法により,人間の動きにあわせて,注視領域を自動生成するとともに顔の向きから注視方向を抽出し,ジェスチャー認識を効果的に行えることを示した.また,異なる角度から計測した複数のカメラ画像を用いて,効果的にジェスチャー認識を行えることを示した.さらに,複数カメラ画像間の位置関係を自動的に学習することにより,予測的なジェスチャー認識を行えることを示した.これらの提案手法に基づき,複数の人間のジェスチャーの差異により,個人識別が行えることを示すとともに,ジェスチャー認識や注意の方向抽出を用いることにより,円滑なコミュニケーションが行えることを示した.
|