2006 Fiscal Year Annual Research Report
多数の未分化なモダリティの受容器を持つロボット指による発達的技能獲得
Project/Area Number |
16300056
|
Research Institution | Osaka University |
Principal Investigator |
細田 耕 大阪大学, 大学院工学研究科, 助教授 (10252610)
|
Co-Investigator(Kenkyū-buntansha) |
浅田 稔 大阪大学, 大学院工学研究科, 教授 (60151031)
高橋 泰岳 大阪大学, 大学院工学研究科, 助手 (90324798)
|
Keywords | 柔軟指 / 触覚センサ / 物体操作 / 人工皮膚 / マルチモダリティ |
Research Abstract |
本年度は研究最終年度として,これまでに作ったロボットシステムを運用し,すべりを用いたはめあい作業の遂行や適応的持ち上げ作業の実現を行った. (1)視覚・すべり覚連合学習法の提案 前年度に,視覚によってすべりを観測する初期状態から,経験を通してすべりに関する情報を獲得するニューラルネットワークを構成し,視触覚統合によってロボットを動作させる学習則を提案した.この学習則を用いると,学習初期にはすべりを視覚で捉えているのに対し,学習が進むことによって,視覚・すべり覚による冗長なすべり表現を獲得することができ,結果的に視覚がさえぎられても作業の続行が可能となり,またすべり覚の感度が視覚の感度よりも高いためにすべりをより速く観測することができるようになる.この学習則を用いて,把持対象の質量が動的に変わる場合や,突然すべりが起こる場合に,ロボットが自動的に握力を増やし,対象物を落とすことなく把持することができることを,実験により示した. (2)提案した学習法を用いたはめあい作業の実験 提案した学習法が,ほかの作業にも適用可能であることを示すために,対象物を持ち,クリアランスの少ない穴にはめ込むはめあい作業を対象として,学習初期には視覚に頼って作業を実現し,その作業を通してすべり感覚を学習,作業後半では,視覚を用いなくてもすべり感覚のみで作業の遂行確率を上げられることを実験的に示した.
|
Research Products
(5 results)