研究課題/領域番号 |
18H06489
|
配分区分 | 補助金 |
研究機関 | 国立研究開発法人産業技術総合研究所 |
研究代表者 |
堂前 幸康 国立研究開発法人産業技術総合研究所, 情報・人間工学領域, 研究グループ長 (50825578)
|
研究期間 (年度) |
2018-08-24 – 2020-03-31
|
キーワード | 視触覚センサ / in-hand / 状態推定 / ロボットビジョン / マニピュレーション |
研究実績の概要 |
近年の機械学習技術の発達とロボットへの応用展開事例の増加に伴い、ロボット作業中の情報をいかに取得するかが重要な課題となってきている。本研究では、視触覚情報を取得できるセンサ系をロボットハンド上に構築する。ロボットハンドが物体を把持中の状態(ここではin-handと呼ぶ)中に、物体の姿勢情報を推定することで、止まることのないスムーズなロボット作業の実現を目指す。 2018年度は、予算採択が決定した下期後半より本研究を開始し、視触覚センサの実験系の構築と、姿勢推定に適したアルゴリズムの調査を進めた。実験系としては、3Dプリンタにより印刷したジグと、ビジョンセンサ、透明ゲルを組み合わせ、ロボットハンドの指先に搭載可能な接触型の視覚センサを試作した。これを開閉型の2指のロボットハンドに搭載し、ロボットハンドが物体を把持した際に、物体の接触表面の形状画像が取得できる環境を構築した。次に、姿勢推定に適した認識アルゴリズムの調査を進めた。Convolutional Neural Network (CNN)により形状画像から距離画像を推定する手法、物体の3次元モデルと物体の形状データを照合する3次元点群照合手法、物体の形状情報から物体に外接するプリミティブ形状を推定する手法に辺りをつけ、実装と評価を進めることとした。 2019年度は、試作した視触覚センサの実験系を利用して、複数の日用品の把持中の状態データを取得するとともに、CNNに基づく状態推定、3次元情報に基づく姿勢推定を実現し、商品形状に対する汎用性の評価を進める。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
予算にて購入した透明ゲルを利用して、実験系の構築が実現した。また認識アルゴリズムの調査が完了した。
|
今後の研究の推進方策 |
構築した実験系を使い、複数の日用品における把持中の物体情報を取得し、姿勢推定手法を適用するとともに、その姿勢再現性と、多様な商品形状に対する汎化性を評価する。
|