研究課題/領域番号 |
19K12170
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
審査区分 |
小区分61050:知能ロボティクス関連
|
研究機関 | 和歌山大学 |
研究代表者 |
小川原 光一 和歌山大学, システム工学部, 准教授 (70452810)
|
研究期間 (年度) |
2019-04-01 – 2022-03-31
|
研究課題ステータス |
完了 (2021年度)
|
配分額 *注記 |
4,420千円 (直接経費: 3,400千円、間接経費: 1,020千円)
2021年度: 1,040千円 (直接経費: 800千円、間接経費: 240千円)
2020年度: 1,690千円 (直接経費: 1,300千円、間接経費: 390千円)
2019年度: 1,690千円 (直接経費: 1,300千円、間接経費: 390千円)
|
キーワード | 動作教示 / 遠隔操作 / 組み立て作業 |
研究開始時の研究の概要 |
本研究課題では,視覚,多指ハンド,ロボットアームを搭載したロボットに対して機械などの正確な組み立て作業を簡便に教示することが可能な,半自律遠隔操作に基づく動作教示法を開発する.そのために,正確な物体操作を実現する多指ハンドと,視触覚センサによる3次元情報の拡張に基づき自律的に物体の把持と移動を実現する技術を開発し,これらを用いて動作教示に基づくロボットによる組み立て作業の自動化に取り組む.
|
研究成果の概要 |
本研究では,視覚,多指ハンド,ロボットアームを搭載したロボットに対して組み立て作業を簡便に教示することが可能な動作教示法を開発するために,以下の3つの研究課題を遂行した.(1)多指ハンドによる正確な物体操作を実現するために,弾性要素の変形を積極的に利用した多指ハンドによる把持物体の操作技術および複数のセンサ情報を統合することによる任意視点映像提示技術を開発した.(2)視触覚センサによる3次元情報に基づく物体の把持と移動を実現するために,剛体・非剛体の認識技術およびロボットアームの経路探索技術を開発した.(3)教示動作の学習を実現するために,把持と物体の同時認識技術を開発した.
|
研究成果の学術的意義や社会的意義 |
ロボットに搭載されたセンサから得られる情報は限られているため,物体の正確な操作を必要とする作業を遠隔操作で教示することは困難である.本研究では,物体認識に基づく経路探索や物体の安定把持などの機能を自律機能としてロボットに持たせることによって,教示者の負担を大幅に軽減することが可能な技術を開発した.本技術は,たとえば多品種少量生産に対応する多能工ロボットの動作教示などに応用できる.
|