配分額 *注記 |
38,870千円 (直接経費: 29,900千円、間接経費: 8,970千円)
2006年度: 12,090千円 (直接経費: 9,300千円、間接経費: 2,790千円)
2005年度: 12,610千円 (直接経費: 9,700千円、間接経費: 2,910千円)
2004年度: 14,170千円 (直接経費: 10,900千円、間接経費: 3,270千円)
|
研究概要 |
本研究では,ヒューマノイドの自立的な行動学習を目的として,模倣発達の観点から,センサー入力に近い下位レベルから言語獲得の上位レベルまでの様々なレベルにおける学習の可能性について研究を行った. 「身体表象の獲得と適用」では,異なるセンサーモダリティの連合・統合の問題を扱い,視覚・触覚・体性感覚の情報を統合し,それをサッカー課題などのタスクへの適用を行った. 「身体写像による他者の動作認識と生成」では,他者と自身の運動を関節角度レベル,微小運動レベル,運動単位レベルのように階層的に表現し,階層ごとに写像を行うモデルを提案した.また,他者と自身の姿勢レベルでの身体写像に基づいて,ジェスチャーによるコミュニケーションを学習するモデルの提案を行った. 「他者の意図推定」では,単なる見かけの模倣だけではなく行動の意図を推定することが重要となる.このため,強化学習の状態価値に基づいて他者の行動を自身の行動レパートリに写像するモデルの提案を行った. 「身体に基づく初期語彙獲得」では,環境中の様々な対象物の視覚的特徴をその対象物の操作方法に基づいてカテゴリ化し,そのカテゴリとラベルの対応関係として語彙獲得を行なうシステムを提案した.また,ロボット自身が感じる特徴量の顕著性(saliency)に基づいて能動的に注視する対象を選択,探索し,さらに特徴量と単語のマッピング時に顕著性によるバイアスをかけることで効率よく語彙を獲得を行うシステムを提案した.
|