研究概要 |
本年度は研究最終年度として,これまでに作ったロボットシステムを運用し,すべりを用いたはめあい作業の遂行や適応的持ち上げ作業の実現を行った. (1)視覚・すべり覚連合学習法の提案 前年度に,視覚によってすべりを観測する初期状態から,経験を通してすべりに関する情報を獲得するニューラルネットワークを構成し,視触覚統合によってロボットを動作させる学習則を提案した.この学習則を用いると,学習初期にはすべりを視覚で捉えているのに対し,学習が進むことによって,視覚・すべり覚による冗長なすべり表現を獲得することができ,結果的に視覚がさえぎられても作業の続行が可能となり,またすべり覚の感度が視覚の感度よりも高いためにすべりをより速く観測することができるようになる.この学習則を用いて,把持対象の質量が動的に変わる場合や,突然すべりが起こる場合に,ロボットが自動的に握力を増やし,対象物を落とすことなく把持することができることを,実験により示した. (2)提案した学習法を用いたはめあい作業の実験 提案した学習法が,ほかの作業にも適用可能であることを示すために,対象物を持ち,クリアランスの少ない穴にはめ込むはめあい作業を対象として,学習初期には視覚に頼って作業を実現し,その作業を通してすべり感覚を学習,作業後半では,視覚を用いなくてもすべり感覚のみで作業の遂行確率を上げられることを実験的に示した.
|