2009 Fiscal Year Annual Research Report
人間の身体表現発達の理解へ向けたロボットの感覚運動統合による構成的表現獲得モデル
Project/Area Number |
08J00719
|
Research Institution | Osaka University |
Principal Investigator |
福家 佐和 Osaka University, 工学研究科, 特別研究員(DC2)
|
Keywords | 認知発達ロボティクス / 身体表象 / 感覚統合 / ヒューマノイドロボット |
Research Abstract |
近年の脳科学や認知科学の取り組みにより、人間の脳内には複数の感覚を統合した自己の身体に関する表現があり,それは成長や疾患による身体構造の変化に応じて,柔軟に再学習されることが示されている.申請者は,ヒューマノイドロボットを用いての構成的な手法の提案を通して,この身体表現を獲得するための情報処理メカニズムへの理解を深める事を日的としている。 これまでの成果に加え申請者は,ロボットが事前知識がなくとも画像内から腕(身体)の運動に関連する領域(手先/道具)に注意を向けその位置を抽出し,姿勢情報(関節角度)との統合を自律的に学習する手法を提案した、実際この2つの情報を統合した表現が生物の脳内に存在する事は,サルの脳のニューロン活動計測により分かっており,環境中に存在する道具の利用を学習するために重要であるとも言われている提案手法においてはロボットが運動中に,入力画像の中で様々な視覚特徴量に基づいて,最も顕著な座標を決定するというボトムアップ的な注意システム(セイレンシーマップアルゴリズム)を用いて決定された視覚情報と,同期して反応した姿勢情報の結合を強化することによって学習を実現する. 申請者は既存の研究にて,顔表面上の触覚センサの空間上の配置を,自信の腕を用いたダブルタッチ行為を通して学習する手法を提案していたが,そのモデルではロボットが事前に腕の視覚体性感覚統合を獲得していることが前提となっていた。しかし,今回提案した手法によりこの前提となっている機能自体も学習可能となる.また,更には実際に脳内で発見されているニューロン(VIP)の機能も,腕の視覚体性感覚統合を利用することにより,自律的に獲得可能であることをジャーナル論文にて発表した.
|
Research Products
(4 results)