研究概要 |
ヒューマノイドロボットは将来,人間と密に接しつつ人間を助ける存在として,社会の様々な局面での活用が期待される.その中でも特に重要な応用として,介護・福祉,災害救助などがあるが,これらに共通して不可欠なのは,全身の任意の部位において対象物や環境に接触し,それを活用する行動能力である.本研究ではそれを実現するための基盤技術の実現に取り組んだ.最終年度であるH21年度には,ヒューマノイドロボットによる様々な接触動作実現法とその学習機能の研究に取り組んだ.背負い動作や寝る動作,物を抱きかかえる動作,手探り動作などについて,独自開発の触覚・姿勢センサスーツや光学式モーションキャプチャを利用した人間計測・解析を行い,一部動作について実機実験とシミュレーション実験を行い,動作実現法の研究を行った.また,自己身体と把持物体に関する学習機能を計算論的モデルやニューラルネットワークモデルの形で構築した. これらの研究の中で,触覚センサおよび動作機能に関して不足する部分が明らかになった.これまで,本研究では,背面,腰部,胸部,など大面積の身体表面に関する接触動作を対象とし,実機での実現を含め多くの成果をあげてきた.これらは本研究の中心的な寄与である.しかし,実際の作業場面への応用に際しては,腕および手先での探り動作や物体操作機能も統合されねばならない.従来用いて来たセンサは空間分解能や関節部での非伸縮性の点でこれらの機能への適用に問題がある.そこで計画を変更・延長し,分解能向上と伸縮性実現に関する新たな触覚センサ技術の開発・改良に取り組み,これを達成した.また,手探り動作を題材として適応的制御法の構築に取り組み,実機実験による評価を行った. 以上の取り組みにより,人間支援のための全身接触動作の基盤技術が構築されたといえる.
|